carrie0307 / attention-nmt
NLP homework:RNN+Attention机器翻译模型, Transormer代码学习
☆27Updated 5 years ago
Related projects ⓘ
Alternatives and complementary repositories for attention-nmt
- 双向lstm+crf 序列标注☆63Updated 5 years ago
- 在bert模型的pre_training基础上进行text_cnn文本分类☆78Updated 4 years ago
- biLSTM_CRF 中文分词☆36Updated 5 years ago
- 使用分层注意力机制 HAN + 多任务学习 解决 AI Challenger 细粒度用户评论情感分析 。https://challenger.ai/competition/fsauor2018☆57Updated 5 years ago
- 基于双向RNN,Attention机制的编解码神经机器翻译模型☆59Updated 6 years ago
- 疫情期间网民情绪识别比赛baseline,使用BERT进行端到端的fine-tuning,datafountain平台,平台评测F1值0.716。☆35Updated 4 years ago
- 这是一个用于解决生成在生成任务中(翻译,复述等等),多样性不足问题的模型。☆46Updated 5 years ago
- 参考NER,基于BERT的电商评论观点挖掘和情感分析☆41Updated 5 years ago
- Capsule, LSTM/GRU, CNN for text class implemented by Pytorch 胶囊网络, 循环神经网络和卷积神经网络在中文文本分类中的应用☆43Updated 5 years ago
- 这是一个seq2seq模型,编码器是bert,解码器是transformer的解码器,可用于自然语言处理中文本生成领域的任务☆72Updated 5 years ago
- 用TensorFlow实现的基于双向LSTM+CRF的命名实体识别。☆14Updated 6 years ago
- 基于TensorFlow,seq2seq+attention+beamsearch的文本摘要。☆57Updated 5 years ago
- 机器翻译练习☆14Updated 4 years ago
- 多标签文本分类☆53Updated 5 years ago
- tensorflow TxetCnn TextRNN 使用Textcnn、Textrnn对文本进行分类☆58Updated 5 years ago
- 机器翻译子任务-翻译质量评价-在BERT模型后面加上Bi-LSTM进行fine-tuning☆35Updated 2 years ago
- bilstm _Attention_crf☆37Updated 5 years ago
- biLSTM_CRF 命名实体识别☆53Updated 5 years ago
- 在 Google BERT Fine-tuning基础上,利用cnn/rnn进行中文文本的分类☆18Updated 5 years ago
- 1.16-1.20小白我对于预训练词向量的使用的一些经验总结~☆23Updated 5 years ago
- textcnn多标签文本分类☆36Updated 6 years ago
- 基于LDA和TextRank的关键子提取算法实现☆23Updated 7 years ago
- Pytorch implementation of "Character-based BiLSTM-CRF Incorporating POS and Dictionaries for Chinese Opinion Target Extraction", ACML2018☆56Updated 3 months ago
- 嵌入Word2vec词向量的RNN+ATTENTION中文文本分类☆150Updated 4 years ago
- PyTorch Bert Text Classification☆31Updated 5 years ago
- 中文文本预处理,Word2Vec训练计算文本相似度。☆44Updated 5 years ago
- 基于知识库的问答系统。其中使用带注意力机制的对抗迁移学习做中文命名实体识别,使用BERT模型做句子相似度分析。☆36Updated 5 years ago
- 2019百度语言与智能技术竞赛信息抽取赛代5名代码☆69Updated 5 years ago
- bert分类, classify, classifier. TensorFlow code and pre-trained models for BERT☆26Updated 5 years ago
- 主要是实现nlp常用网络以及结果比较,各模型的优劣势,如:FastText,TextCNN,TextRNN,TextRCNN,BiLSTM,Seq2seq,BERT,Transformer,ELMo以及Attention机制等等。☆43Updated 5 years ago