VectorFist / RNN-NMT
基于双向RNN,Attention机制的编解码神经机器翻译模型
☆60Updated 7 years ago
Alternatives and similar repositories for RNN-NMT:
Users that are interested in RNN-NMT are comparing it to the libraries listed below
- 中英机器文本翻译☆157Updated 5 years ago
- 嵌入Word2vec词向量的RNN+ATTENTION中文文本分类☆151Updated 4 years ago
- biLSTM_CRF 中文分词☆34Updated 6 years ago
- tensorflow TxetCnn TextRNN 使用Textcnn、Textrnn对文本进行分类☆58Updated 6 years ago
- seq2seq+attention model for Chinese textsum☆41Updated 7 years ago
- Capsule, LSTM/GRU, CNN for text class implemented by Pytorch 胶囊网络, 循环神经 网络和卷积神经网络在中文文本分类中的应用☆43Updated 6 years ago
- NLP research:基于tensorflow的nlp深度学习项目,支持文本分类/句子匹配/序列标注/文本生成 四大任务☆188Updated 9 months ago
- 文本分类的目前测试效果较好的算法☆56Updated 5 years ago
- Lstm+Cnn 预训练词向量 文本分类☆102Updated 6 years ago
- 使用分层注意力机制 HAN + 多任务学习 解决 AI Challenger 细粒度用户评论情感分析 。https://challenger.ai/competition/fsauor2018☆58Updated 5 years ago
- 主要是实现nlp常用网络以及结果比较,各模型的优劣势,如:FastText,TextCNN,TextRNN,TextRCNN,BiLSTM,Seq2seq,BERT,Transformer,ELMo以及Attention机制等等。☆45Updated 5 years ago
- 关于文本分类的许多方法,主要涉及到TextCNN,TextRNN, LEAM, Transformer,Attention, fasttext, HAN等☆74Updated 6 years ago
- 两层attention 的lstm评论情感分析☆22Updated 7 years ago
- paper reading☆21Updated 6 years ago
- 双向lstm+crf 序列标注☆63Updated 5 years ago
- bilstm _Attention_crf☆37Updated 6 years ago
- NLP homework:RNN+Attention机器翻译模型, Transormer代码学习☆29Updated 6 years ago
- AI-Challenger Baseline 细粒度用户评论情感分析☆227Updated 6 years ago
- Tensorflow+bilstm+attention+multi label text classify☆121Updated 6 years ago
- 基于TensorFlow,seq2seq+attention+beamsearch的文本摘要。☆58Updated 5 years ago
- Hierarchical BiLSTM CNN using Keras☆76Updated 6 years ago
- BERT-BiLSTM-CRF的Keras版实现☆40Updated 5 years ago
- 在bert模型的pre_training基础上进行text_cnn文本分类☆78Updated 5 years ago
- 细粒度用户评论情感分析☆122Updated 6 years ago
- 情绪原因识别、情绪分类、情绪词典构建☆69Updated 6 years ago
- 中文->英文的机器翻译,完全基于kreas-transformer。模型已上传,可直接跑。☆52Updated 4 years ago
- 用TensorFlow实现的基于双向LSTM+CRF的命名实体识别。☆14Updated 7 years ago
- 集成各种神经网络进行情感分类,包括CNN、LSTM、Transformer以及BERT等网络模型☆72Updated 5 years ago
- 这是一个seq2seq模型,编码器是bert,解码器是transformer的解码器,可用于自然语言处理中文本生成领域的任务☆71Updated 5 years ago
- ☆75Updated 6 years ago