Ludong418 / BERT-NER-TENSOR-SERVING
基于Bert(或Robert)预训练模型微调命名实体识别任务,并提供基于docker的Tensor Serving部署模型方案实现过程。
☆36Updated 5 years ago
Alternatives and similar repositories for BERT-NER-TENSOR-SERVING:
Users that are interested in BERT-NER-TENSOR-SERVING are comparing it to the libraries listed below
- BDCI2019-互联网金融新实体发现-第7名(本可top3)☆18Updated 5 years ago
- 2019百度语言与智能技术竞赛信息抽取赛代5名代码☆69Updated 5 years ago
- 达观算法比赛ner任务,从重新训练bert,到finetune预测。☆75Updated 2 years ago
- 开课吧&后厂理工学院_百度NLP项目2:试题数据集多标签文本分类 Models: FastText TextCNN GCN BERT et al.☆48Updated 5 years ago
- NLP的数据增强Demo☆47Updated 5 years ago
- BERT预训练模型字向量提取工具☆52Updated 4 years ago
- 基于轻量级的albert实现albert+BiLstm+CRF☆88Updated last year
- multi-label,classifier,text classification,多标签文本分类,文本分类,BERT,ALBERT,multi-label-classification☆27Updated 3 years ago
- 迭代膨胀卷积命名实体抽取☆45Updated 5 years ago
- 本项目是NLP领域一些任务的基准模型实现,包括文本分类、命名实体识别、实体关系抽取、NL2SQL、CKBQA以及BERT的各种下游任务应用。☆47Updated 4 years ago
- 使用ALBERT预训练模型,用于识别文本中的时间,同时验证模型的预测耗时是否有显著提升。☆56Updated 5 years ago
- 基于检索的任务型多轮对话☆77Updated 4 years ago
- BERT-BiLSTM-CRF的Keras版实现☆40Updated 5 years ago
- 实现了一下multi-head-selection联合关系实体抽取☆30Updated 5 years ago
- 瑞金医院知识图谱大赛总决赛第四名比赛攻略_megemini队☆34Updated 6 years ago
- ☆38Updated 5 years ago
- 中国中文信息学会社会媒体处理专业委员会举办的2019届中文人机对话之自然语言理解竞赛☆74Updated 4 years ago
- 实体链接demo☆65Updated 6 years ago
- 一条命令产生bert、albert句向量,用于相似度计算和文本分类等。☆34Updated 2 years ago
- 基于ELMo, tensorflow的中文命名实体标注 Chinese Named Entity Recognition Based on ELMo☆21Updated 5 years ago
- 2020语言与智能技术竞赛:关系抽取任务☆65Updated 4 years ago
- 2020语言与智能技术 竞赛:关系抽取任务(https://aistudio.baidu.com/aistudio/competition/detail/31?lang=zh_CN)☆24Updated 4 years ago
- 中文实体识别 bert/xlnet/albert ...预训练模型 +bilstm+crf / +crf☆22Updated 2 years ago
- 2020 “万创杯”中医药天池大数据竞赛——中药说明书实体识别挑战 复盘☆31Updated 4 years ago
- cw2vec implementation in pytorch☆17Updated 6 years ago
- bert,albert计算中文句子的相似度☆21Updated 5 years ago
- 转换 https://github.com/brightmart/albert_zh 到google格式☆62Updated 4 years ago
- 使用BERT解决lic2019机器阅读理解☆89Updated 5 years ago
- 机器检索阅读联合学习,莱斯杯:全国第二届“军事智能机器阅读”挑战赛 rank6 方案☆127Updated 4 years ago
- 基于BERT的预训练语言模型实现,分为两步:预训练和微调。目前已包括BERT、Roberta、ALbert三个模型,且皆可支持Whole Word Mask模式。☆16Updated 5 years ago