AimeeLee77 / wiki_zh_word2vecLinks
利用Python构建Wiki中文语料词向量模型试验
☆524Updated 3 years ago
Alternatives and similar repositories for wiki_zh_word2vec
Users that are interested in wiki_zh_word2vec are comparing it to the libraries listed below
Sorting:
- 基于tensorflow 实现的用textcnn方法做情感分析的项目,有数据,可以直接跑。☆350Updated 5 years ago
- 嵌入Word2vec词向量的CNN中文文本分类☆450Updated 5 years ago
- 利用Python实现中文文本关键词抽取,分别采用TF-IDF、TextRank、Word2Vec词聚类三种方法。☆1,150Updated 7 years ago
- 利用bert预训练的中文模型进行文本分类 数据集中文情感分析语料chnsenticorp☆349Updated 6 years ago
- 本实验,是用BERT进行中文情感分类,记录了详细操作及完整程序☆377Updated 6 years ago
- 今日头条中文新闻(文本)分类数据集☆394Updated 4 years ago
- 用tensorflow进行中文自然语言处理的情感分析☆449Updated 4 years ago
- 中文文本摘要/关键词提取☆439Updated 4 years ago
- 使用keras实现的基于Bi-LSTM + CRF的中文分词+词性标注☆378Updated 6 years ago
- 综合了同义词词林扩展版与知网(Hownet)的词语相似度计算方法,词汇覆盖更多、结果更准确。☆732Updated 3 years ago
- 今日头条中文新闻文本(多层)分类数据集☆398Updated 4 years ago
- bert中文分类实践☆737Updated 6 years ago
- 使用预训练语言模型BERT做中文NER☆966Updated 5 years ago
- python3实现互信息和左右熵的新词发现☆593Updated 6 years ago
- 中文文本语义相似度(Chinese Semantic Text Similarity)语料库建设☆481Updated 7 years ago
- 自然语言基础模型☆564Updated 6 years ago
- BiLstm+CNN+CRF 法律文档(合同类案件)领域分词(100篇标注样本)☆386Updated 7 years ago
- TextCNN Pytorch实现 中文文本分类 情感分析☆630Updated 6 years ago
- 使用两种方法(抽取式Textrank和概要式seq2seq)自动提取文本摘要☆218Updated 6 years ago
- Chinese Embedding collection incling token ,postag ,pinyin,dependency,word embedding.中文自然语言处理向量合集,包括字向量,拼音向量,词向量,词性向量,依存关系向量.共5种类型的向量☆456Updated 6 years ago
- 中文商品评论短文本分类器,可用于情感分析☆365Updated 3 years ago
- BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 论文的中文翻译 Chinese Translation!☆688Updated 5 years ago
- 嵌入Word2vec词向量的RNN+ATTENTION中文文本分类☆152Updated 5 years ago
- 腾讯word2vec模型缩小版☆519Updated 10 months ago
- Chinese Shopping Reviews sentiment analysis☆358Updated 7 years ago
- CNN, LSTM, NBOW, fasttext 中文文本分类☆122Updated 5 years ago
- 新闻上的文本分类:机器学习大乱斗☆180Updated 6 years ago
- 自然语言处理(nlp),小姜机器人(闲聊检索式chatbot),BERT句向量-相似度(Sentence Similarity),XLNET句向量-相似度(text xlnet embedding),文本分类(Text classification), 实体提取(ner,b…☆1,534Updated 3 years ago
- 基于python gensim 库的LDA算法 对中文进行文本分析,很难得,网上都是英文的,基本上没有中文的,需要安装jieba分词进行分词,然后去除停用词最后才能使用LDA☆136Updated 5 years ago
- self complement of Sentence Similarity compute based on cilin, hownet, simhash, wordvector,vsm models,基于同义词词林,知网,指纹,字词向量,向量空间模型的句子相 似度计算。☆362Updated 6 years ago