ZexinYan / NLP-JDLinks
This is the program which tries to classifier the sentiment of the production's comments in JD.
☆39Updated 8 years ago
Alternatives and similar repositories for NLP-JD
Users that are interested in NLP-JD are comparing it to the libraries listed below
Sorting:
- 细粒度情感分析repository1:Wai Mai Opinion Miner,细粒度情感分析系统GUI demo。☆113Updated 9 years ago
- Sentiment Classifier base on traditional Maching learning methods, eg Bayes, SVM ,DecisionTree, KNN and Deeplearning method like MLP,CNN,…☆143Updated 7 years ago
- A simple documentary topic analysis implement based on traditional K-means and LDA which can achieve a not-bad result. 基于Kmeans与Lda模型的多文…☆246Updated 6 years ago
- 基于卷积神经网络参数优化的情感分析论文code☆61Updated 7 years ago
- 练习题︱基于今日头条开源数据的文本挖掘☆83Updated 7 years ago
- gensim-word2vec+svm文本情感分析☆104Updated 8 years ago
- SA☆33Updated 6 years ago
- 这是本人第一次数据算法比赛实录。主要整理记录2017年CCF大数据与计算智能竞赛使用的模型和实现代码,选择了基于主题的文本情感分析赛题。采用情感词典+自定义规则完成比赛,成绩:136/796。☆48Updated 7 years ago
- 基于gensim模块计算句子相似度☆123Updated 9 years ago
- AI-Challenger Baseline 细粒度用户评论情感分析☆231Updated 7 years ago
- 基于深度学习的自然语言处理库☆160Updated 7 years ago
- Syntax and Ruler-Based Doc sentiment analysis 基于依存句法规则的篇章级情感分析demo☆107Updated 6 years ago
- CCF大数据比赛,基于主题的文本情感分析☆94Updated 7 years ago
- 新闻检索:爬虫定向采集3-4个网页,实现网页信息的抽取、检索和索引。网页个数不少于10个,能按时间、相关度、热度等属性进行排序,并实现相似主题的自动聚类。可以实现:有相关搜索推荐、snippet生成、结果预览(鼠标移到相关结果, 能预览)功能☆128Updated 9 years ago
- MachineLearning☆95Updated 10 years ago
- ☆115Updated 7 years ago
- 文本特征提取,适用于小说,论文,议论文等文本,提取词语、句子、依存关系等特征。python开发。☆42Updated 7 years ago
- using jieba and doc2vec to implement sentiment analysis for Chinese docs☆79Updated 7 years ago
- 本项目 曾冲到全球第一,干货集锦见本页面最底部,另完整精致的纸质版《编程之法:面试和算法心得》已在京东/当当上销售☆40Updated 7 years ago
- 基于知识库的中文问答系统(biLSTM)☆248Updated 7 years ago
- Kaggle challenge Bag of words meets bags of popcorn in Python 3☆36Updated 7 years ago
- 基于keras的评论文本情感分类☆43Updated 5 years ago
- ☆54Updated 2 years ago
- Chinese segmentation simple by keras☆45Updated 7 years ago
- 基于python gensim 库的LDA算法 对中文进行文本分析,很难得,网上都是英文的,基本上没有中文的,需要安装jieba分词进行分词,然后去除停用词最后才能使用LDA☆139Updated 6 years ago
- 一个自动回复FAQ问题的聊天机器人。目前使用了简单词汇对比、词性权重、词向量3种相似度计算模式。输入符合格式的FAQ文本文件即可立刻使用。欢迎把无法正确区分的问题和FAQ文件发送到评论区。☆112Updated 8 years ago
- 朴素贝叶斯文本分类器☆142Updated 9 years ago
- 经济责任审计知识图谱:网络爬虫、关系抽取、领域词汇判定☆127Updated 5 years ago
- 中文文本分类,使用搜狗文本分类语料库☆125Updated 9 years ago
- 基于知识图谱的智能问答机器人☆222Updated 7 years ago