jiangzhongkai / NLP_From_Zero_to_OneLinks
主要是实现nlp常用网络以及结果比较,各模型的优劣势,如:FastText,TextCNN,TextRNN,TextRCNN,BiLSTM,Seq2seq,BERT,Transformer,ELMo以及Attention机制等等。
☆46Updated 6 years ago
Alternatives and similar repositories for NLP_From_Zero_to_One
Users that are interested in NLP_From_Zero_to_One are comparing it to the libraries listed below
Sorting:
- 使用分层注意力机制 HAN + 多任务学习 解决 AI Challenger 细粒度用户评论情感分析 。https://challenger.ai/competition/fsauor2018☆58Updated 6 years ago
- NLP research:基于tensorflow的nlp深度学习项目,支持文本分类/句子匹配/序列标注/文本生成 四大任务☆194Updated last year
- albert + lstm + crf实体识别,pytorch实现。识别的主要实体是人名、地名、机构名和时间。albert + lstm + crf (named entity recognition)☆137Updated 3 years ago
- 微调预训练语言模型,解决多标签分类任务(可加载BERT、Roberta、Bert-wwm以及albert等知名开源tf格式的模型)☆141Updated 5 years ago
- pytorch implementation of multi-label text classification, includes kinds of models and pretrained. Especially for Chinese preprocessing.☆78Updated 6 years ago
- 在bert模型的pre_training基础上进行text_cnn文本分类☆79Updated 5 years ago
- 嵌入Word2vec词向量的RNN+ATTENTION中文文本分类☆152Updated 5 years ago
- multi-label-classification-4-event-type☆138Updated 2 years ago
- 基于bert的中文自然语言处理工具,包括情感分析、中文分词、词性标注、以及命名实体识别功能,并提供文本分类任务、序列标注任务、句对关系判断任务的训练与预测接口☆133Updated 6 years ago
- transformer crf 命名实体识别☆107Updated 6 years ago
- Bert中文文本分类☆41Updated 6 years ago
- Use BERT pre-trained model to do sentiment classification☆96Updated 5 years ago
- CNN, LSTM, NBOW, fasttext 中文文本分类☆121Updated 6 years ago
- 利用ALBERT实现文本二分类,判别是否属于政治上的出访类事件,提升模型训练和预测速度。☆75Updated 2 years ago
- 文本二分类任务,是否文档是否属于政治上的出访类事件,利用BERT提取特征,模型采用简单的DNN。☆61Updated 5 years ago
- 基于Pytorch实现的一些经典自然语言处理模型中文短文本分类任务,包含TextCNN,TextRCNN,FastText,BERT,ROBERT以及ERNIE☆54Updated 5 years ago
- SiameseSentenceSimilarity,个人实现的基于Siamese bilstm模型的相似句子判定模型,提供训练数据集和测试数据集.☆271Updated 6 years ago
- 参考NER,基于BERT的电商评论观点挖掘和情感分析☆44Updated 6 years ago
- BERT-BiLSTM-CRF的Keras版实现☆40Updated 6 years ago
- Multilabel classification based on TextCNN and Attention☆78Updated 5 years ago
- 一个关于百度2019语言与智能技术竞赛信息抽取 (http://lic2019.ccf.org.cn/kg) 模型, 模型采用BERT+CNN。DEMO地址 https://github.com/Wangpeiyi9979/InformationExtractionDem…☆189Updated 6 years ago
- 集成各种神经网络进行情感分类,包括CNN、LSTM、Transformer以及BERT等网络模型☆73Updated 6 years ago
- keras implement of dgcnn for reading comprehension☆164Updated 6 years ago
- 复现了论文《基于主题模型的短文本关键词抽取及扩展》的代码☆31Updated 5 years ago
- BERT预训练模型字向量提取工具☆53Updated 5 years ago
- 基于预训练模型(BERT,BERT-wwm)的文本分类模板,CCF BDCI新闻情感分析A榜4/2735。☆270Updated 5 years ago
- 本项目采用Keras和Keras-bert实现文本多标签分类任务,对BERT进行微调。☆67Updated 4 years ago
- 提出基于划分的LDA主题模型 (PLDA)。对传统LDA模型进行改进,考虑中长篇文档篇章结构较为清晰,传统LDA在处理中长篇文档时不能识别每个篇章的主题,提出基于划分的LDA主题模型,对中长篇文档如新闻报道】国务院工作报告等按照段落进行划分,先拆后合,并将其效果与传统LDA…☆42Updated 6 years ago
- 使用两种方法(抽取式Textrank和概要式seq2seq)自动提取文本摘要☆219Updated 6 years ago
- 2019百度语言与智能技术竞赛信息抽取赛代5名代码☆69Updated 6 years ago