luoyangbiao / bert_flask
使用bert训练MRPC数据集,写成API接口模式以及简易的html界面
☆22Updated 5 years ago
Related projects ⓘ
Alternatives and complementary repositories for bert_flask
- 中国中文信息学会社会媒体处理专业委员会举办的2019届中文人机对话之自然语言理解竞赛☆74Updated 4 years ago
- 这是一个seq2seq模型,编码器是bert,解码器是transformer的解码器,可用于自然语言处理中文本生成领域的任务☆72Updated 5 years ago
- bert multiple gpu train pretrain☆29Updated 4 years ago
- code for ACL2020:《FLAT: Chinese NER Using Flat-Lattice Transformer》 我注释&修改&添加了部分源码,使得大家更容易复现这个代码。☆56Updated 4 years ago
- 迭代膨胀卷积命名实体抽取☆45Updated 5 years ago
- 本项目是NLP 领域一些任务的基准模型实现,包括文本分类、命名实体识别、实体关系抽取、NL2SQL、CKBQA以及BERT的各种下游任务应用。☆47Updated 3 years ago
- chinese pretrain unilm☆28Updated 4 years ago
- 天池大赛疫情文本挑战赛☆50Updated 4 years ago
- Use deep models including BiLSTM, ABCNN, ESIM, RE2, BERT, etc. and evaluate on 5 Chinese NLP datasets: LCQMC, BQ Corpus, ChineseSTS, OCN…☆76Updated 2 years ago
- lic2020关系抽取比赛,使用Pytorch实现苏神的模型。☆102Updated 4 years ago
- 基于BERT的无监督分词和句法分析☆110Updated 4 years ago
- 法研杯CAIL2019阅读理解赛题参赛模型☆42Updated 5 years ago
- TIANCHI-小布助手对话短文本语义匹配BERT baseline☆32Updated 3 years ago
- 搜索所有中文NLP数据集,附常用英文NLP数据集☆14Updated 4 years ago
- ☆92Updated 4 years ago
- 这是一个用于解决生成在生成任务中(翻译,复述等等),多样性不足问题的模型。☆46Updated 5 years ago
- 实体链接demo☆64Updated 5 years ago
- 机器检索阅读联合学习,莱斯杯:全国第二届“军事智能机器阅读”挑战赛 rank6 方案☆126Updated 4 years ago
- 5st place solution for competition Duplication Question Detection based on Adversarial Attack☆39Updated 4 years ago
- 中文文本句对相似度匹配-ATEC数据集☆20Updated 4 years ago
- ☆58Updated 4 years ago
- ccks_2019_百度实体链接技术比赛_第一名解决方案☆57Updated 5 years ago
- 达观算法比赛ner任务,从重新训练bert,到finetune预测。☆76Updated 2 years ago
- 在bert模型的pre_training基础上进行text_cnn文本分类☆78Updated 4 years ago
- NLP Predtrained Embeddings, Models and Datasets Collections(NLP_PEMDC). The collection will keep updating.☆64Updated 4 years ago
- A Sentence Cloze Dataset for Chinese Machine Reading Comprehension (CMRC 2019)☆126Updated 2 years ago
- 使用BERT解决lic2019机器阅读理解☆89Updated 5 years ago
- 天池中药说明书实体识别挑战冠军方案;中文命名实体识别;NER; BERT-CRF & BERT-SPAN & BERT-MRC;Pytorch☆23Updated 3 years ago
- CNN、BiLSTM、Bert(3layers)对Bert(12layers)模型的蒸馏的keras实现☆27Updated 4 years ago
- 基于tensorflow1.x的预训练模型调用,支持单机多卡、梯度累积,XLA加速,混合精度。可灵活训练、验证、预测。☆58Updated 3 years ago