binnz / chinese-qa-with-bert
基于预训练模型 BERT 的阅读理解
☆92Updated last year
Alternatives and similar repositories for chinese-qa-with-bert:
Users that are interested in chinese-qa-with-bert are comparing it to the libraries listed below
- 使用BERT解 决lic2019机器阅读理解☆89Updated 5 years ago
- 机器检索阅读联合学习,莱斯杯:全国第二届“军事智能机器阅读”挑战赛 rank6 方案☆127Updated 4 years ago
- 法研杯2019 阅读理解赛道 top3☆150Updated last year
- 用BERT在百度WebQA中文问答数据集上做阅读问答☆65Updated 4 years ago
- 中国法研杯-司法人工智能挑战赛(CAIL2018-2020)☆89Updated 2 years ago
- Chinese Language Generation Evaluation 中文生成任务基准测评☆246Updated 4 years ago
- lic2020关系抽取比赛,使用Pytorch实现苏神的模型。☆102Updated 4 years ago
- 中国中文信息学会社会媒体处理专业委员会举办的2019届中文人机对话之自然语言理解竞赛☆74Updated 4 years ago
- Bert finetune for CMRC2018, CJRC, DRCD, CHID, C3☆182Updated 4 years ago
- 2020语言与智能技术竞赛:关系抽取任务☆66Updated 4 years ago
- 中国法研杯CAIL2019要素抽取任务第三名方案分享☆139Updated 4 years ago
- Unilm for Chinese Chitchat Robot.基于Unilm模型的夸夸式闲聊机器人项目。☆157Updated 4 years ago
- baidu aistudio event extraction competition☆224Updated last year
- 基于轻量级的albert实现albert+BiLstm+CRF☆88Updated last year
- 使用bert做领域分类、意图识别和槽位填充任务☆75Updated 4 years ago
- albert + lstm + crf实体识别,pytorch实现。识别的主要实体是人名、地名、机构名和时间。albert + lstm + crf (named entity recognition)☆136Updated 2 years ago
- 天池大赛疫情文本挑战赛☆48Updated 4 years ago
- 整理一下在keras中使用T5模型的要点☆172Updated 2 years ago
- 微调预训练语言模型,解决多标签分类任务(可加载BERT、Roberta、Bert-wwm以及albert等知名开源tf格式的模型)☆139Updated 4 years ago
- ☆88Updated 3 years ago
- BERT预训练模型字向量提取工具☆52Updated 4 years ago
- 达观算法比赛ner任务,从重新训练bert,到finetune预测。☆75Updated 2 years ago
- ☆155Updated 3 years ago
- 限定领域的三元组抽取的一次尝试,本文将会介绍笔者 在2019语言与智能技术竞赛的三元组抽取比赛方面的一次尝试。☆133Updated last year
- Bert分类,语义相似度,获取句向量。☆65Updated 2 months ago
- 对ACL2020 FastBERT论文的复现,论文地址//arxiv.org/pdf/2004.02178.pdf☆193Updated 3 years ago
- lasertagger-chinese;lasertagger中文学习案例,案例数据,注释,shell运行☆75Updated last year
- Named Recognition Entity based on BERT and CRF 基于BERT+CRF的中文命名实体识别☆183Updated 2 years ago
- A full-process dialogue system that can be deployed online☆98Updated 2 years ago
- Keras solution of simple Knowledge-Based QA task with Pretrained Language Model: supporting BERT/RoBERTa/ALBERT☆20Updated last year