murray-z / multi_label_classificationLinks
基于pytorch + bert的多标签文本分类(multi label text classification)
☆103Updated last year
Alternatives and similar repositories for multi_label_classification
Users that are interested in multi_label_classification are comparing it to the libraries listed below
Sorting:
- bert pytorch模型微调用于的多标签文本分类☆133Updated 5 years ago
- 基于词汇信息融合的中文NER模型☆168Updated 3 years ago
- 超长文本分类(大于1000字);文档级/篇章级文本分类;主要是解决长距离依赖问题☆130Updated 3 years ago
- 基于pytorch_bert的中文多标签分类☆91Updated 3 years ago
- experiments of some semantic matching models and comparison of experimental results.☆161Updated last year
- 基于Pytorch的文本分类框架,支持TextCNN、Bert、Electra等。☆62Updated 2 years ago
- 利用指针网络进行信息抽取,包含命名实体识别、关系抽取、事件抽取。☆126Updated 2 years ago
- 基于Pytorch的命名实体识别框架,支持LSTM+CRF、Bert+CRF、RoBerta+CRF等框架☆87Updated 2 years ago
- GlobalPointer的优化版/NER实体识别☆120Updated 3 years ago
- 面向金融领域的篇章级事件抽取和事件因果关系抽取 第六名 方案及代码☆62Updated 3 years ago
- 全局指针统一处理嵌套与非嵌套NER的Pytorch实现☆393Updated 2 years ago
- CMeEE/CBLUE/NER实体识别☆130Updated 3 years ago
- 本项目采用Keras和Keras-bert实现文本多标签分类任务,对BERT进行微调。☆67Updated 4 years ago
- 基于pytorch+bert的中文文本分类☆84Updated 2 years ago
- NLP句子编码、句子embedding、语义相似度:BERT_avg、BERT_whitening、SBERT、SmiCSE☆176Updated 3 years ago
- 基于Pytorch+BERT+CRF的NLP序列标注模型,目前包括分词,词性标注,命名实体识别等☆60Updated 2 years ago
- 本人项目进行中搜集的数据集,包含原始数据和经过处理后的数据,项目持续更新。☆114Updated 4 years ago
- TPlinker for NER 中文/英文命名实体识别☆125Updated 3 years ago
- 基于pytorch+bert的中文事件抽取☆72Updated 3 years ago
- 中文二分类,bert+TextCNN 两种实现方法☆23Updated 2 years ago
- GPLinker_pytorch☆82Updated 3 years ago
- Pytorch进行长文本分类 。这里用到的网络有:FastText、TextCNN、TextRNN、TextRCNN、Transformer☆48Updated 5 years ago
- pytorch实现 基于Bert+BiLSTM+CRF的中文命名实体识别☆44Updated 4 years ago
- ☆278Updated 3 years ago
- 使用bert进行事件抽取。☆44Updated last year
- 嵌套命名实体识别 Nested NER☆20Updated 3 years ago
- 利用huggingface 实现文本分类☆58Updated 3 years ago
- 句子匹配模型,包括无监督的SimCSE、ESimCSE、PromptBERT,和有监督的SBERT、CoSENT。☆99Updated 2 years ago
- 基于prompt的中文文本分类。☆55Updated 2 years ago
- pytorch implementation of multi-label text classification, includes kinds of models and pretrained. Especially for Chinese preprocessing.☆75Updated 5 years ago