we-chatter / chatbot_utilsLinks
basic algorithm
☆10Updated 4 years ago
Alternatives and similar repositories for chatbot_utils
Users that are interested in chatbot_utils are comparing it to the libraries listed below
Sorting:
- 基于检索的任务型多轮对话☆77Updated 4 years ago
- transformers implement (architecture, task example, serving and more)☆95Updated 3 years ago
- 达观算法比赛ner任务,从重新训练bert,到finetune预测。☆75Updated 2 years ago
- 微调预训练语言模型(BERT、Roberta、XLBert等),用于计算两个文本之间的相似度(通过句子对分类任务转换),适用于中文文本☆89Updated 4 years ago
- 任务型对话系统(Task-based Dialogue System)☆65Updated 3 years ago
- 使用bert做领域分类、意图识别和槽位填充任务☆76Updated 4 years ago
- 机器检索阅读联合学习,莱斯杯:全国第二届“军事智能机器阅读”挑战赛 rank6 方案☆127Updated 4 years ago
- 基于tensorflow1.x的预训练模型调用,支持单机多卡、梯度累积,XLA加速,混合精度。可灵活训练、验证、预测。☆58Updated 3 years ago
- 中国中文信息学会社会媒体处理专业委员会举办的2019届中文人机对话之自然语言理解竞赛☆74Updated 5 years ago
- 2019语言与智能技术竞赛-基于知识图谱的主动聊天☆115Updated 6 years ago
- CCKS2019评测任务五-公众公司公告信息抽取,第3名☆121Updated 5 years ago
- Adversarial Attack文本匹配比赛☆42Updated 5 years ago
- ☆89Updated 4 years ago
- Keras solution of Chinese NER task using BiLSTM-CRF/BiGRU-CRF/IDCNN-CRF model with Pretrained Language Model: supporting BERT/RoBERTa/ALB…☆12Updated 2 years ago
- CCF BDCI 金融信息负面及主体判定 冠军代码☆105Updated 5 years ago
- ccks_2019_百度实体链接技术比赛_第一名解决方案☆57Updated 5 years ago
- 使用BERT解决lic2019机器阅读理解☆89Updated 6 years ago
- 2019百度语言与智能技术竞赛信息抽取赛代5名代码☆69Updated 5 years ago
- Relation Extraction 中文关系提取☆73Updated 6 years ago
- 中国法研杯CAIL2019要素抽取任务第三名方案分享☆139Updated 4 years ago
- A Chinese KBQA dataset with SPARQL annotations.☆144Updated 5 years ago
- implementation SlotGated SLU model for keras☆34Updated 4 years ago
- 利用预训练的中文模型实现基于bert的语义匹配模型 数据集为LCQMC官方数据☆197Updated 5 years ago
- 微调预训练语言模型,解决多标签分类任务(可加载BERT、Roberta、Bert-wwm以及albert等知名开源tf格式的模型)☆141Updated 4 years ago
- NLP的数据增强Demo☆47Updated 5 years ago
- 一个关于百度2019语言与智能技术竞赛信息抽取 (http://lic2019.ccf.org.cn/kg) 模型, 模型采用BERT+CNN。DEMO地址 https://github.com/Wangpeiyi9979/InformationExtractionDem…☆187Updated 6 years ago
- 转换 https://github.com/brightmart/albert_zh 到google格式☆62Updated 4 years ago
- 使用ALBERT预训练模型,用于识别文本中的时间,同时验证模型的预测耗时是否有显著提升。☆56Updated 5 years ago
- 中文自然语言的实体抽取和意图识别(Natural Language Understanding),可选Bi-LSTM + CRF 或者 IDCNN + CRF☆185Updated 6 years ago
- 个人基于谷歌开源的BERT编写的文本分类器(基于微调方式),可自由加载NLP领域知名的预训练语言模型BERT、Bert-wwm、Roberta、ALBert以及ERNIE1.0☆163Updated 4 years ago