qingyujean / document-level-classification
超长文本分类(大于1000字);文档级/篇章级文本分类;主要是解决长距离依赖问题
☆119Updated 3 years ago
Related projects ⓘ
Alternatives and complementary repositories for document-level-classification
- experiments of some semantic matching models and comparison of experimental results.☆159Updated last year
- 基于词汇信息融合的中文NER模型☆162Updated 2 years ago
- 中文数据集下SimCSE+ESimCSE的实现☆189Updated 2 years ago
- SimCSE在中文上的复现,有监督+无监督☆266Updated 2 years ago
- 基于pytorch + bert的多标签文本分类(multi label text classification)☆91Updated last year
- 基于pytorch_bert的中文多标签分类☆82Updated 2 years ago
- NLP句子编码、句子embedding、语义相似度:BERT_avg、BERT_whitening、SBERT、SmiCSE☆173Updated 2 years ago
- 中文无监督SimCSE Pytorch实现☆132Updated 3 years ago
- 基于Pytorch的文本分类框架,支持TextCNN、Bert、Electra等。☆58Updated last year
- bert pytorch模型微调用于的多标签文本分类☆125Updated 5 years ago
- 全局指针统一处理嵌套与非嵌套NER☆250Updated 3 years ago
- 本人项目进行中搜集的数据集,包含原始数据和经过处理后的数据,项目持续更新。☆107Updated 4 years ago
- ☆277Updated 2 years ago
- 基于GlobalPointer的实体/关系/事件抽取☆142Updated 2 years ago
- Pytorch-NLU,一个中文文本分类、序列标注工具包,支持中文长文本、短文本的多类、多标签分类任务,支持中文命名实体识别、词性标注、分词、抽取式文本摘要等序列标注任务。 Ptorch NLU, a Chinese text classification and sequ…☆337Updated 4 months ago
- 利用指针网络进行信息抽取,包含命名实体识别、关系抽取、事件抽取。☆118Updated last year
- 文本相似度,语义向量 ,文本向量,text-similarity,similarity, sentence-similarity,BERT,SimCSE,BERT-Whitening,Sentence-BERT, PromCSE, SBERT☆68Updated 7 months ago
- Implemention of NER model on chinese dataset.☆67Updated last year
- 全局指针统一处理嵌套与非嵌套NER的Pytorch实现☆381Updated last year
- CMeEE/CBLUE/NER实体识别☆124Updated 2 years ago
- 使用torch整合两种经典的指针NER抽取范式,分别是SpanBert和苏神的GlobalPointer,简单加了些tricks,配置后一键运行☆131Updated 5 months ago
- GlobalPointer的优化版/NER实体识别☆112Updated 2 years ago
- CoSENT、STS、SentenceBERT☆162Updated last year
- ☆87Updated 3 years ago
- Knowledge Graph☆169Updated 2 years ago
- TPlinker for NER 中文/英文命名实体识别☆122Updated 3 years ago
- Chinese NLP Data Augmentation, BERT Contextual Augmentation☆111Updated 2 years ago
- 基于SpanBert的中文指代消解,pytorch实现☆95Updated last year
- NLP文本增强的两种方式:同义词替换(利用word2vec词表)和回译☆71Updated 3 years ago