lyj157175 / Models
神经网络各种模型PyTorch实现
☆37Updated last year
Related projects ⓘ
Alternatives and complementary repositories for Models
- 多模型中文cnews新闻文本分类☆50Updated 4 years ago
- Pytorch进行长文本分类。这里用到的网络有:FastText、TextCNN、TextRNN、TextRCNN、Transformer☆44Updated 4 years ago
- NLP 相关的项目 如:词向量,文本分类,文本匹配,NER,信息抽取,文本生成以及NLP在电商中的应用☆33Updated last year
- Summary and comparison of Chinese classification models☆34Updated 2 years ago
- 基于Pytorch实现的一些经典自然语言处理模型中文短文本分类任务,包含TextCNN,TextRCNN,FastText,BERT,ROBERT以及ERNIE☆51Updated 4 years ago
- 基于Pytorch+BERT+CRF的NLP序列标注模型,目前包括分词,词性标注,命名实体识别等☆56Updated last year
- 天池 新冠疫情相似句对判定大赛 top6方案☆76Updated 2 years ago
- 阿里天池赛:CCKS2021 运营商知识图谱推理问答☆46Updated 2 years ago
- 中文关系抽取☆94Updated 3 years ago
- 利用bert和textcnn解决多标签文本分类的demo。☆29Updated 2 years ago
- THUCNews中文文本分类数据集,该数据集包含84万篇新闻文档,总计14类;在该模型的基础上测试多个版本bert分类效果。☆50Updated 3 years ago
- 多标签文本分类☆28Updated 2 years ago
- 文本分类baseline:BERT、半监督学习UDA、对抗学习、数据增强☆98Updated 3 years ago
- 天池-Datawhale 零基础入门NLP-新闻文本分类 最终榜Top10分享☆51Updated 4 years ago
- 疫情期间网民情绪识别比赛分享+top1~3解决方案☆51Updated 4 years ago
- ☆17Updated 4 years ago
- ☆20Updated 3 years ago
- bert文本多分类(情感分析)、bert-bilstm-crf序列标注任务(快递地址的序列标注任务)☆29Updated 3 years ago
- ☆35Updated 2 years ago
- Pytorch 文本分类温习练习,本项目主要针对短文本的简单分类,demo看看就好。这里用到的网络有:FastText、TextCNN、TextRNN、TextRCNN、Transformer☆14Updated 4 years ago
- bert pytorch模型微调用于的多标签文本分类☆125Updated 5 years ago
- 本项目是NLP领域一些任务的基准模型实现,包括文本分类、命名实体识别、实体关系抽取、NL2SQL、CKBQA以及BERT的各种下游任务应用。☆47Updated 3 years ago
- ccks2020的比赛-面向金融领域的篇章级事件主体与要素抽取(一)事件主体抽取☆17Updated 3 years ago
- 基于CNN、RNN、GCN、BERT的中文文本分类☆43Updated last year
- multi-label,classifier,text classification,多标签文本分类,文本分类,BERT,ALBERT,multi-label-classification,seq2seq,attention,beam search☆32Updated 2 years ago
- 百度2021年语言与智能技术竞赛多形态信息抽取赛道关系抽取部分torch版baseline☆50Updated 3 years ago
- 2021 搜狐校园文本匹配算法大赛方案☆16Updated this week
- 2020 CCF大数据与计算智能大赛-非结构化商业文本信息中隐私信息识别-第7名方案☆74Updated 3 years ago
- PyTorch使用BERT进行英语多标签文本分类☆31Updated 2 years ago
- 复现论文《Simplify the Usage of Lexicon in Chinese NER》☆40Updated 3 years ago