jiluojiluo / Bert-Chinese-Text-Classification-Pytorch-transformers
Bert-Chinese-Text-Classification-Pytorch-master
☆9Updated last year
Related projects ⓘ
Alternatives and complementary repositories for Bert-Chinese-Text-Classification-Pytorch-transformers
- 超长文本分类(大于1000字);文档级/篇章级文本分类;主要是解决长距离依赖问题☆119Updated 3 years ago
- 基于pytorch + bert的多标签文本分类(multi label text classification)☆91Updated last year
- 基于词汇信息融合的中文NER模型☆162Updated 2 years ago
- 本人项目进行中搜集的数据集,包含原始数据和经过处理后的数据,项目持续更新。☆109Updated 4 years ago
- 基于Pytorch的文本分类框架,支持TextCNN、Bert、Electra等。☆58Updated last year
- 中文二分类,bert+TextCNN 两种实现方法☆18Updated last year
- 毕业设计:基于Bert_Position_BiLSTM_Attention_CRF_LSTMDecoder的法律文书要素识别☆52Updated 3 years ago
- 基于GOOGLE T5中文生成式模型的摘要生成/指代消解,支持batch批量生成,多进程☆217Updated last year
- 嵌套命名实体识别 Nested NER☆19Updated 3 years ago
- 文本相似度,语义向量,文本向量,text-similarity,similarity, sentence-similarity,BERT,SimCSE,BERT-Whitening,Sentence-BERT, PromCSE, SBERT☆69Updated 7 months ago
- 利用指针网络进行信息抽取,包含命名实体识别、关系抽取、事件抽取。☆119Updated last year
- Using BERT+Bi-LSTM+CRF☆135Updated 2 years ago
- 基于PyTorch的BERT中文文本分类模型(BERT Chinese text classification model implemented by PyTorch)☆168Updated 8 months ago
- 全局指针统一处理嵌套与非嵌套NER的Pytorch实现☆382Updated last year
- Reimplement CasRel model in PyTorch.使用PyTorch对吉林大学CasRel模型进行复现,并在百度关系抽取数据集上训练测试。☆185Updated 2 years ago
- SimCSE中文语义相似度对比学习模型☆78Updated 2 years ago
- 基于prompt的中文文本分类。☆55Updated last year
- 基于Pytorch的命名实体识别框架,支持LSTM+CRF、Bert+CRF、RoBerta+CRF等框架☆77Updated last year
- CMeEE/CBLUE/NER实体识别☆124Updated 2 years ago
- ☆133Updated 3 years ago
- CMeIE/CBLUE/CHIP/实体关系抽取/SPO抽取☆215Updated 2 years ago
- 基于pytorch+bert的指代消解☆15Updated 3 years ago
- ☆35Updated 2 years ago
- NLP关系抽取:序列标注、层叠式指针网络、Multi-head Selection、Deep Biaffine Attention☆99Updated 3 years ago
- ☆53Updated 4 years ago
- 基于pytorch+bert的中文文本分类☆77Updated last year
- bert pytorch模型微调用于的多标签文本分类☆125Updated 5 years ago
- 基于论文SpERT: "Span-based Entity and Relation Transformer"的中文关系抽取,同时抽取实体、实体类别和关系类别。☆30Updated last year
- 中文数据集下SimCSE+ESimCSE的实现☆189Updated 2 years ago