mgh5212819 / Chinese_Classification
中文文本分类的各种尝试,包含特征工程,机器学习以及深度学习。
☆11Updated 4 years ago
Alternatives and similar repositories for Chinese_Classification:
Users that are interested in Chinese_Classification are comparing it to the libraries listed below
- 基于pytorch+bilstm_crf的中文命名实体识别☆14Updated 2 years ago
- bert-flat 简化版 添加了很多注释☆15Updated 3 years ago
- 2021搜狐校园文本匹配算法大赛☆16Updated 3 years ago
- 采用bert进行事件抽取,[cls]进行事件分类,最后一层向量进行序列标注,两个任务同时训练。☆12Updated 3 years ago
- 2020阿里云天池大数据竞赛-中医药命名实体识别挑战赛☆27Updated 4 years ago
- 基于BERT和指针网络构建实体抽取任务☆14Updated 4 years ago
- 基于pytorch的级联Bert用于中文命名实体识别。☆19Updated last year
- 基于simcse的中文句向量生成☆15Updated 2 years ago
- 基于BERT-CRF的命名实体识别模型☆14Updated 3 years ago
- NLP实验:新词挖掘+预训练模型继续Pre-training☆47Updated last year
- 多标签文本分类☆29Updated 3 years ago
- 本项目采用Keras和ALBERT实现文本多标签分类任务,其中对ALBERT进行微调。☆13Updated 4 years ago
- 该仓库主要记录 NLP 算法工程师相关的 搜索引擎 学习笔记☆12Updated 2 years ago
- 使用多头的思想来进行命名实体识别☆33Updated 3 years ago
- 基于pytorch的TPLinker_plus进行中文命名实体识别☆18Updated last year
- 基于BERT-MRC(阅读理解)的命名实体识别模型☆19Updated 2 years ago
- 使用sentence-transformers(SBert)训练自己的文本相似度数据集并进行评估。☆46Updated 3 years ago
- 利用 HMM、BiLSTM-CRF 及 ALBERT 模型进行中文命名实体识别☆23Updated 2 years ago
- DataFountain第五届达观杯第4名方案☆50Updated 2 years ago
- 2021 搜狐校园文本匹配算法大赛方案☆17Updated 4 months ago
- ☆13Updated last year
- BDCI2019-互联网金融新实体发现-第7名(本可top3)☆18Updated 5 years ago
- 基于中文的营销文本生成,基于Pointer Generator Network和Converage的实现,此外还尝试各种文本数据增广和优化技巧☆19Updated 4 years ago
- 基于BERT的预训练语言模型实现,分为两步:预训练和微调。目前已包括BERT、Roberta、ALbert三个模型,且皆可支持Whole Word Mask模式。☆16Updated 5 years ago
- Cascade bert+word vec and one layer FLAT, trained by adversarial FGM and Stochastic Weight Averaging☆23Updated 3 years ago
- 简版文本对话/问答系统☆34Updated 5 years ago
- 之江-电商评论观点挖掘的比赛,基于pytorch-transformers版本,暂时只实现了BERT做aspect+opinion+属性分类+情感极性的联合标注,还未加上CRF。☆33Updated 5 years ago
- DataFountain第五届达观杯第4名方案☆12Updated 3 years ago
- 2021搜狐校园文本匹配算法大赛Top2方案☆36Updated 11 months ago
- multi-label,classifier,text classification,多标签文本分类,文本分类,BERT,ALBERT,multi-label-classification☆27Updated 3 years ago