ZephyrChenzf / text-classification-pytorch
使用pytorch和京东某商品评价数据集,采用不同模型对文本进行分类
☆25Updated 6 years ago
Related projects ⓘ
Alternatives and complementary repositories for text-classification-pytorch
- 面向金融领域的事件主体抽取(ccks2019),一个baseline☆118Updated 5 years ago
- 汽车主题情感分析大赛冠军☆27Updated 5 years ago
- 关于文本分类的许多方法,主要涉及到TextCNN,TextRNN, LEAM, Transformer,Attention, fasttext, HAN等☆74Updated 5 years ago
- 参考NER,基于BERT的电商评论观点挖掘和情感分析☆41Updated 5 years ago
- Byte Cup 2018国际机器学习竞赛 23 名(水滴队)代码☆46Updated 5 years ago
- 之江-电商评论观点挖掘的比赛,基于pytorch-transformers版本,暂时只实现了BERT做aspect+opinion+属性分类+情感极性的联合标注,还未加上CRF。☆33Updated 5 years ago
- pytorch learning eamples☆25Updated 6 years ago
- 2019达观杯 第六名代码☆44Updated last year
- 使用分层注意力机制 HAN + 多任务学习 解决 AI Challenger 细粒度用户评论情感分析 。https://challenger.ai/competition/fsauor2018☆57Updated 5 years ago
- Bert中文文本分类☆40Updated 5 years ago
- NLP的数据增强Demo☆47Updated 4 years ago
- 两层attention 的lstm评论情感分析☆22Updated 6 years ago
- 主要是实现nlp常用网络以及结果比较,各模型的优劣势,如:FastText,TextCNN,TextRNN,TextRCNN,BiLSTM,Seq2seq,BERT,Transformer,ELMo以及Attention机制等等。☆43Updated 5 years ago
- 互联网新闻情感分析赛题baseline☆42Updated 5 years ago
- Our experience & lesson & code☆48Updated 7 years ago
- 蚂蚁金服比赛 15th/2632☆47Updated 6 years ago
- 基于ELMo, tensorflow的中文命名实体标注 Chinese Named Entity Recognition Based on ELMo☆22Updated 5 years ago
- 基于bert的ner,使用bilstm+crf☆32Updated 3 years ago
- 关键词抽取,神策杯2018高校算法大师赛比赛,solo 排名3/591☆65Updated 6 years ago
- 在bert模型的pre_training基础上进行text_cnn文本分类☆78Updated 4 years ago
- Adversarial Attack文本匹配比赛☆42Updated 5 years ago
- 2019年4月8日,第三届搜狐校园内容识别算法大赛。☆25Updated 5 years ago
- CHIP2018评测任务2,平安医疗科技智能患者健康咨询问句匹配大赛baseline,BiLSTM+特征工程计算相似性,10折交叉验证平均投票做bagging,F1值0.83左右,rank16。☆19Updated 5 years ago
- ☆32Updated 5 years ago
- 2019百度语言与智能技术竞赛信息抽取赛代5名代码☆69Updated 5 years ago
- 相似案例匹配☆46Updated 5 years ago
- 2019搜狐校园算法大赛。决赛解决方案ppt、实体lgb单模代码☆70Updated 5 years ago
- 达观算法比赛ner任务,从重新训练bert,到finetune预测。☆76Updated 2 years ago
- pytorch用Textcnn-bilstm-crf模型实现命名实体识别☆42Updated 6 years ago
- 实现了一下multi-head-selection联合关系实体抽取☆31Updated 5 years ago