foamliu / Transformer
英中文本机器翻译的
☆93Updated 5 years ago
Alternatives and similar repositories for Transformer:
Users that are interested in Transformer are comparing it to the libraries listed below
- 中英机器文本翻译☆156Updated 5 years ago
- BERT微调在机器翻译上的应用,哎哟,效果贼好。☆47Updated 4 years ago
- 多模型中文cnews新闻文本分类☆54Updated 4 years ago
- 基于pytorch_bert的中文多标签分类☆89Updated 3 years ago
- 英中机器文本翻译☆61Updated 6 years ago
- ☆74Updated 5 years ago
- bert pytorch模型微调用于的多标签文本分类☆131Updated 5 years ago
- 各大文本摘要模型-中文文本可运行的解决方案☆67Updated last year
- chinese bertsum ; bertsum 抽取式模型中文版本;给出案例数据、全代码注释;下载即可训练、预测、学习☆204Updated last year
- 基于Pytorch+BERT+CRF的NLP序列标注模型,目前包括分词,词性标注,命名实体识别等☆59Updated 2 years ago
- 主要介绍了NLP的基础模型以及相关算法☆98Updated 5 years ago
- 超长文本分类(大于1000字);文档级/篇章级文本分类;主要是解决长距离依赖问题☆128Updated 3 years ago
- Pytorch Bert Finetune in Chinese Text Classification☆217Updated 11 months ago
- 基于Transformer的生成式文本摘要☆178Updated 2 years ago
- 基于pytorch + bert的多标签文本分类(multi label text classification)☆102Updated last year
- 中国法研杯-司法人工智能挑战赛(CAIL2018-2020)☆89Updated 2 years ago
- 使用pytorch搭建textCNN实现中文文本分类☆127Updated 6 years ago
- 基于bert的kbqa系统☆150Updated 2 years ago
- 文本分类baseline:BERT、半监督学习UDA、对抗学习、数据增强☆101Updated 3 years ago
- 基于BI-LSTM+CRF的中文命名实体识别 Pytorch☆388Updated last year
- Pytorch进行长文本分类。这里用到的网络有:FastText、TextCNN、TextRNN、TextRCNN、Transformer☆46Updated 4 years ago
- ☆88Updated 3 years ago
- Extractive text summarization using seq2seq, PGN and coverage machanism.☆20Updated 3 years ago
- 基于Pytorch实现的一些经典自然语言处理模型中文短文本分类任务,包含TextCNN,TextRCNN,FastText,BERT,ROBERT以及ERNIE☆53Updated 4 years ago
- chinese-sequence-ner多模型中文命名实体识别☆75Updated 4 years ago
- 中文分词☆60Updated 3 years ago
- experiments of some semantic matching models and comparison of experimental results.☆160Updated last year
- albert + lstm + crf实体识别,pytorch实现。识别的主要实体是人名、地名、机构名和时间。albert + lstm + crf (named entity recognition)☆137Updated 2 years ago
- 基于pytorch+bert的中文文本分类☆83Updated last year
- 🙈 An unofficial implementation of SoftMaskedBert based on huggingface/transformers.☆95Updated 3 years ago