thinkingmanyangyang / BERT-Text-GenerationLinks
利用BERT预训练模型进行文本生成,可用于对话、摘要、问题生成等任务。 目前支持策略,词表的插入和删除、自定义Character Embedding、随机词替换等
☆10Updated 3 years ago
Alternatives and similar repositories for BERT-Text-Generation
Users that are interested in BERT-Text-Generation are comparing it to the libraries listed below
Sorting:
- Summary and comparison of Chinese classification models☆36Updated 3 years ago
- ☆14Updated last year
- ☆41Updated 4 years ago
- Cascade bert+word vec and one layer FLAT, trained by adversarial FGM and Stochastic Weight Averaging☆23Updated 4 years ago
- Multi-Label Text Classification Based On Bert☆23Updated 2 years ago
- 中文无监督SimCSE Pytorch实现☆135Updated 4 years ago
- 文本分类baseline:BERT、半监督学习UDA、对抗学习、数据增强☆104Updated 4 years ago
- 面向数据安全治理的数据内容智能发现与分级分类——一种通用的应对中文无监督文本分类的解题思路分享☆52Updated 4 years ago
- NLP实验:新词挖掘+预训练模型继续Pre-training☆47Updated 2 years ago
- Pytorch进行长文本分类。这里用到的网络有:FastText、TextCNN、TextRNN、TextRCNN、Transformer☆48Updated 5 years ago
- 句子匹配模型,包括无监督的SimCSE、ESimCSE、PromptBERT,和有监督的SBERT、CoSENT。☆99Updated 3 years ago
- 继续预训练中文bert☆31Updated 4 years ago
- 基于PaddleNLP开源的抽取式UIE进行医学命名实体识别(torch实现)☆44Updated 3 years ago
- 基于 pytorch 的 bert 实现和下游任务微调☆54Updated 3 years ago
- 面向金融领域的小样本跨类迁移事件抽取 第三名 方案及代码☆17Updated 5 years ago
- 本项目使用云问科技训练的中文版UniLM模型对微博数据集进行自动标题生成。☆39Updated last year
- DataFountain第五届达观杯第4名方案☆50Updated 3 years ago
- WoBERT_pytorch☆41Updated 4 years ago
- 使用UniLM实现中文文本摘要☆43Updated 5 years ago
- 采用bert进行事件抽取,[cls]进行事件分类,最后一层向量进行序列标注,两个任务同时训练。☆13Updated 4 years ago
- 这是使用pytoch 实现的长文本分类器☆46Updated 6 years ago
- ☆17Updated 4 years ago
- A simple implement for multi-label text classification with Bert. I will extend the code to a higher version for very long text over 512,…☆12Updated 4 years ago
- 2020 阿里云天池大数据竞赛-中医药文献问题生成挑战赛☆30Updated 4 years ago
- 文言文信息抽取(实体识别+关系抽取)☆10Updated 2 years ago
- 基于自由度(熵)、凝固度 新词发现算法实现☆12Updated 7 years ago
- 多模型中文cnews新闻文本分类☆59Updated 5 years ago
- 2020语言与智能技术竞赛:事件抽取任务方案代码☆28Updated 2 years ago
- ☆12Updated 4 years ago
- 2021搜狐校园文本匹配算法大赛☆16Updated 4 years ago