taishan1994 / BERT-ABSALinks
使用bert进行中文方面级情感识别。
☆25Updated 2 years ago
Alternatives and similar repositories for BERT-ABSA
Users that are interested in BERT-ABSA are comparing it to the libraries listed below
Sorting:
- 使用bert进行事件抽取。☆47Updated 2 years ago
- 基于pytorch+bilstm_crf的中文命名实体识别☆15Updated 2 years ago
- Summary and comparison of Chinese classification models☆36Updated 2 years ago
- 基于pytorch的不平衡数据的文本分类☆12Updated 3 years ago
- Pytorch进行长文本分类。这里用到的网络有:FastText、TextCNN、TextRNN、TextRCNN、Transformer☆48Updated 5 years ago
- 采用bert进行事件抽取,[cls]进行事件分类,最后一层向量进行序列标注,两个任务同时训练。☆13Updated 4 years ago
- 利用指针网络进行信息抽取,包含命名实体识别、关系抽取、事件抽取。☆129Updated 2 years ago
- 基于pytorch的TPLinker_plus进行中文命名实体识别☆20Updated 2 years ago
- 基于ChatGPT的情感分析☆51Updated 2 years ago
- THUCNews中文文本分类数据集,该数据集包含84万篇新闻文档,总计14类;在该模型的基础上测试多个版本bert分类效果。☆65Updated 4 years ago
- 基于论文SpERT: "Span-based Entity and Relation Transformer"的中文关系抽取,同时抽取实体、实体类别和关系类别。☆38Updated 2 years ago
- 基于pytorch_bert的中文多标签分类☆91Updated 3 years ago
- 基于pytorch + bert的多标签文本分类(multi label text classification)☆108Updated 2 years ago
- 基于BERT-MRC(阅读理解)的命名实体识别模型☆20Updated 3 years ago
- 基于pytorch的百度UIE命名实体识别。☆56Updated 2 years ago
- Multi-Label Text Classification Based On Bert☆22Updated 2 years ago
- ☆14Updated last year
- 基于pytorch+bert的中文文本分类☆88Updated 2 years ago
- 使用sentence-transformers(SBert)训练自己的文本相似度数据集并进行评估。☆49Updated 3 years ago
- 超长文本分类(大于1000字);文档级/篇章级文本分类;主要是解决长距离依赖问题☆132Updated 3 years ago
- 基于词汇信息融合的中文NER模型☆169Updated 3 years ago
- Pytorch 文本分类温习练习, 本项目主要针对短文本的简单分类,demo看看就好。这里用到的网络有:FastText、TextCNN、TextRNN、TextRCNN、Transformer☆16Updated 5 years ago
- 基于pytorch的GlobalPointer进行中文命名实体识别。☆37Updated 2 years ago
- 基于 pytorch 的 bert 实现和下游任务微调☆53Updated 2 years ago
- 使用BERT-BiLSTM+CRF进行ner任务(pytorch_lightning版)☆46Updated 2 years ago
- 基于pytorch的CasRel进行三元组抽取。☆39Updated 2 years ago
- pytorch bert 版的 multi_label_text_classification☆10Updated 5 years ago
- 基于BERT的中文命名实体识别☆44Updated 3 years ago
- 基于BERT的文本多标签多分类☆11Updated 3 years ago
- bert pytorch模型微调用于的多标签文本分类☆136Updated 5 years ago