wyh267 / ChineseWordSegmentation
中文分词程序,可以在没有中文语料库的情况下通过相关性将一段文本中的中文词汇抽取出来
☆52Updated 11 years ago
Related projects ⓘ
Alternatives and complementary repositories for ChineseWordSegmentation
- 基于gensim模块计算句子相似度☆122Updated 8 years ago
- 利用深度学习实现中文分词☆58Updated 7 years ago
- Question and Answering Model with TensorFlow☆32Updated 2 years ago
- Chinese Tokenizer; New words Finder. 中文三段式机械分词算法; 未登录新词发现算法☆95Updated 8 years ago
- 卷积神经网络(CNN)应用于中文文本分析任务☆35Updated 8 years ago
- 机器学习文本分类器☆47Updated 8 years ago
- 新词发现算法(NewWordDetection)☆93Updated 3 years ago
- 对中文分词jieba (python版)的注解☆89Updated 6 years ago
- This a deep learning code for myself.☆39Updated 7 years ago
- 同义词扩展☆28Updated 8 years ago
- auto generate chinese words in huge text.☆92Updated 9 years ago
- 基于标题分类的主题句提取方法可描述为: 给定一篇新闻报道, 计算标题与新闻主题词集的相似度, 判断标题是否具有提示性。对于提示性标题,抽取新闻报道中与其最相似的句子作为主题句; 否则, 综合利用多种特征计算新闻报道中句子的重要性, 将得分最高的句子作为主题句。☆39Updated 8 years ago
- 《知网》中文词语语义相似度算法☆42Updated 11 years ago
- 把之前 hanLP-python-flask 裡面的 hanLP 單獨分出來☆60Updated 6 years ago
- 中文短文句相似读☆135Updated 6 years ago
- This is a word2vec for Chinese douban movie reviews 在豆瓣电影影评上进行word2vec, 一个中文语料word2vec☆48Updated 7 years ago
- 中文文本自动纠错☆80Updated 6 years ago
- 基于深度学习的中文分词尝试☆85Updated 9 years ago
- google 官方word2vec 中文注释版☆107Updated 10 years ago
- 基于深度学习的自然语言处理库☆152Updated 6 years ago
- Details of paper cw2vec☆83Updated 6 years ago
- sina weibo capture and sentiment classification☆53Updated 8 years ago
- 中文相关词典和语料库。☆168Updated 10 years ago
- 基于知识库信息的词向量模型☆50Updated 5 years ago
- Train Wikidata with word2vec for word embedding tasks☆123Updated 6 years ago
- 新词发现算法(NewWordDetection)☆63Updated 7 years ago
- Chinese Natural Language Processing tools and examples☆163Updated 8 years ago
- FastText 中文文档☆62Updated 3 years ago