xuhaiming1996 / BERT-T2T
这是一个用于解决生成在生成任务中(翻译,复述等等),多样性不足问题的模型。
☆44Updated 5 years ago
Related projects: ⓘ
- 这是一个seq2seq模型,编码器是bert,解码器是transformer的解码器,可用于自然语言处理中文本生成领域的任务☆71Updated 5 years ago
- 使用BERT解决lic2019机器阅读理解☆89Updated 5 years ago
- (2019 法研杯 阅读理解) A pytorch implement of bert joint baseline for machine comprehension task in 2019 cail☆59Updated last year
- 基于transformer的指针生成网络☆92Updated 3 years ago
- 2019百度语言与智能技术竞赛信息抽取赛代5名代码☆69Updated 5 years ago
- 2019 语言与智能技术竞赛-知识驱动对话 B榜第5名源码和模型☆25Updated 4 years ago
- 中国中文信息学会社会媒体处理专业委员会举办的2019届中文人机对话之自然语言理解竞赛☆73Updated 4 years ago
- 法研杯CAIL2019阅读理解赛题参赛模型☆42Updated 5 years ago
- ☆32Updated 5 years ago
- ene to end neural coreference resolution(forked from https://github.com/kentonl/e2e-coref and make some little change)☆20Updated 5 years ago
- 实现了一下multi-head-selection联合关系实体抽取☆31Updated 5 years ago
- novel deep learning research works with PaddlePaddle☆48Updated 3 years ago
- 关系抽取个人实战总结以及开源工具包使用☆58Updated 5 years ago