xuemzhan / Intent-recognition
基于RNN、CNN、XGboost的问答系统意图识别模块
☆34Updated 6 years ago
Alternatives and similar repositories for Intent-recognition:
Users that are interested in Intent-recognition are comparing it to the libraries listed below
- 基于意图识别和命名实体识别的多轮对话场景设计☆37Updated 5 years ago
- 使用bert做领域分类、意图识别和槽位填充任务☆75Updated 4 years ago
- 基于检索的任务型多轮对话☆77Updated 4 years ago
- 多轮对话系统的多意图识别☆28Updated 6 years ago
- 实体链接demo☆64Updated 5 years ago
- 基于Seq2Seq的多轮对话系统和基于LSTM的问答机制☆33Updated 6 years ago
- 中文自然语言的实体抽取和意图识别(Natural Language Understanding),可选Bi-LSTM + CRF 或者 IDCNN + CRF☆182Updated 6 years ago
- 微调预训练语言模型(BERT、Roberta、XLBert等),用于计算两个文本之间的相似度(通过句子对分类任务转换),适用于中文文本☆89Updated 4 years ago
- 使用HMM模型实现的机构名实体识别☆46Updated 6 years ago
- CCF-BDCI大数据与计算智能大赛-互联网金融新实体发现-9th☆54Updated 5 years ago
- self complemented SpellCorrection based pinyin similairity, edit distance ,基于拼音相似度与编辑距离的查询纠错。☆79Updated 2 years ago
- Bert中文文本分类☆40Updated 5 years ago
- 基于ltp的简单评论观点抽取模块☆116Updated 6 years ago
- 实现基于相似度匹配和检索的问答系统☆18Updated 5 years ago
- 2019语言与智能技术竞赛-基于知识图谱的主动聊天☆115Updated 5 years ago
- 达观算法比赛ner任务,从重新训练bert,到finetune预测。☆75Updated 2 years ago
- 使用ALBERT预训练模型,用于识别文本中的时间,同时验证模型的预测耗时是否有显著提升。☆56Updated 5 years ago
- 开课吧&后厂理工学院_百度NLP项目2:试题数据集多标签文本分类 Models: FastText TextCNN GCN BERT et al.☆47Updated 5 years ago
- bert_chinese☆39Updated 2 years ago
- 中国中文信息学会社会媒体处理专业委员会举办的2019届中文人机对话之自然语言理解竞赛☆74Updated 4 years ago
- 2019百度语言与智能技术竞赛信息抽取赛代5名代码☆69Updated 5 years ago
- 基于知识图谱的中文问答系统(EA-CKGQA)☆37Updated 5 years ago
- NLP research:基于tensorflow的nlp深度学习项目,支持文本分类/句子匹配/序列标注/文本生成 四大任务☆188Updated 7 months ago
- 依存句法实现关系三元组的自动抽取☆96Updated 3 years ago
- 【梳理】FDDC2018金融算法挑战赛02-A股上市公司公告信息抽取☆94Updated 6 years ago
- Keras solution of simple Knowledge-Based QA task with Pretrained Language Model: supporting BERT/RoBERTa/ALBERT☆20Updated last year
- 基于汽车知识图谱的汽车问答多轮对话系统☆34Updated 5 years ago
- 基于依存句法与语义角色标注的三元组抽取☆10Updated 6 years ago
- 实现了一下multi-head-selection联合关系实体抽取☆30Updated 5 years ago
- 基于知识库的问答系统。其中使用带注意力机制的对抗迁移学习做中文命名实体识别,使用BERT模型做句子相似度分析。☆37Updated 5 years ago