DataXujing / NLP-paper
NLP 自然语言处理教程 https://dataxujing.github.io/NLP-paper/
☆32Updated 3 years ago
Alternatives and similar repositories for NLP-paper:
Users that are interested in NLP-paper are comparing it to the libraries listed below
- BLOOM 模型的指令微调☆24Updated last year
- 本项目由三个模块构成。意图识别:判断用户的意图是业务型还是闲聊型;模型检索:该部分构建一个语料库,当用户 发起新的query(通过意图识别判断为业务型对话)时,为用户匹配query检索的最佳response,使用HSWN进行召回(粗排), 然后构建句子的相似度,并利用Lig…☆10Updated 4 years ago
- 基于 pytorch 的 bert 实现和下游任务微调☆50Updated 2 years ago
- 开课吧&后厂理工学院_百度NLP项目2:试题数据集多标签文本分类 Models: FastText TextCNN GCN BERT et al.☆48Updated 5 years ago
- 天池-Datawhale 零基础入门NLP-新闻文本分类 最终榜Top10分享☆58Updated 4 years ago
- Summary and comparison of Chinese classification models☆34Updated 2 years ago
- 2020阿里云天池大数据竞赛-中医药命名实体识别挑战赛☆27Updated 4 years ago
- 带拼音、字形特征的文本纠错模型☆11Updated 2 years ago
- 多模型中文cnews新闻文本分类☆54Updated 5 years ago
- 商品标题实体识别☆23Updated 2 years ago
- 基于pytorch的百度UIE命名实体识别。☆57Updated 2 years ago
- bert-flat 简化版 添加了很多注释☆15Updated 3 years ago
- RelExt: A Tool for Relation Extraction from Text. 文本实体关系抽取工具。☆49Updated 2 years ago
- 神经网络各种模型PyTorch 实现☆39Updated 2 years ago
- 该仓库主要记录 NLP 算法工程师相关的 搜索引擎 学习笔记☆12Updated 2 years ago
- ☆39Updated 3 years ago
- 使用sentence-transformers(SBert)训练自己的文本相似度数据集并进行评估。☆47Updated 3 years ago
- 基于Pytorch实现的中文文本分类脚手架,以及常用模型对比。☆18Updated 3 years ago
- 用BERT在百度WebQA中文问答数据集上做阅读问答☆65Updated 5 years ago
- 基于PaddleNLP开源的抽取式UIE进行医学命名实体识别(torch实现)☆44Updated 2 years ago
- 基于pytorch的GlobalPointer进行中文命名实体识别。☆36Updated last year
- The repository is used to record some useful and reusable codes.☆44Updated 4 years ago
- GoGPT:基于Llama/Llama 2训练的中英文增强大模型|Chinese-Llama2☆78Updated last year
- sodic2021 法律咨询智能问答 Baseline 线上35+☆17Updated 3 years ago
- Implementing BERT + CRF with PyTorch for Chinese NER.☆10Updated 3 years ago
- 一套代码指令微调大模型☆38Updated last year
- WoBERT Pytorch 版本,中文词汇级Bert:WoBERT学习☆21Updated 4 years ago
- 简单高效的Bert中文文本分类模型开发和部署☆25Updated 5 years ago
- pytorch bert 版的 multi_label_text_classification☆10Updated 5 years ago
- 天池 新冠疫情相似句对判定大赛 top6方案☆76Updated 2 years ago