Dengqlbq / ZhiHuSpiderLinks
知乎问题及答案爬虫
☆25Updated 7 years ago
Alternatives and similar repositories for ZhiHuSpider
Users that are interested in ZhiHuSpider are comparing it to the libraries listed below
Sorting:
- self complemented WeiboIndexSpyder based on Selenium ,新浪微博指数(微指数)采集,包括综合指数,移动端指数,PC端指数☆31Updated 7 years ago
- 依据香港中文大学设计的规则系统,先用小样本评论建立初始关键词库,再结合18种句式逐条匹配评论,能够快速准确地识别评论对象及情感极性。经多次迭代优化关键词库后,达到较高准确率的基础上,使用Tableau进一步分析数据,识别出客户集中关注的商品属性、普遍好评差评的商品属性;通过…☆53Updated 7 years ago
- 爬取汽车之家的口碑数据,并破解前端js反爬虫措施分析☆62Updated 7 years ago
- 用于发现热议事件的新闻文本聚类算法的python实现☆36Updated 8 years ago
- self complemented BaiduIndexSpyder based on Selenium , index image decode and num image transfer,基于关键词的历时百度搜索指数自动采集☆42Updated 7 years ago
- 机器学习文本分类器☆46Updated 8 years ago
- 今日头条爬虫,主要爬取关键词搜索结果,包含编辑距离算法、奇异值分解、k-means聚类。☆72Updated 5 years ago
- 针对微博的话题聚类实现☆49Updated 9 years ago
- 中文文本情感分类利用cnn☆20Updated 6 years ago
- 基于标题分类的主题句提取方法可描述为: 给定一篇新闻报道, 计算标题与新闻主题词集的相似度, 判断标题是否具有提示性。对于提示性标题,抽取新闻报道中与其最相似的句子作为主题句; 否则, 综合利用多种特征计算新闻报道中句子的重要性, 将得分最高的句子作为主题句。☆40Updated 8 years ago
- 文本分类是指在给定分类体系下 , 根据文本的内容自动确定文本类别的过程。首先我们根据scrapy爬虫根据中国知网URL的规律,爬取70多万条2014年公开的发明专利,然后通过数据清洗筛选出了60多万条含标签数据。通过TF-IDF对60多万条本文进行词频提取,依照词频排序提取…☆107Updated 7 years ago
- 练习题︱基于今日头条开源数据的文本挖掘☆83Updated 6 years ago
- 新闻爬虫 (腾讯,网易,新浪,今日头条,搜狐,凤凰网,腾讯滚动新闻)☆57Updated 7 years ago
- 本文提出一种基于应答关系来挖掘QQ群中意见领袖的方法,该方法首先构建回应词词库,然后基于Aho-Corasick算法来匹配聊天文本中的回应词数据,构建出用户应答关系的网络结构,最后使用社交网络中重要节点识别的方法来发现意见领袖。该方法对QQ群中的意见领袖发现具有较高的准确率…☆21Updated 8 years ago
- 爬虫项目,领英、专利、乐捐、好大夫、阿里拍卖、看准网、实习僧、百度百科、51job、智联招聘等近80个网站☆83Updated 4 years ago
- ZhidaoChatbot, a chatbot that can be an expert on the common questions like why,how,when,who,what based on the online question-answer web…☆42Updated 6 years ago
- 豆瓣电影(短评)爬虫☆52Updated 6 years ago
- 为了实现百度的为你写诗 2.0 版的论文 “Chinese Poetry Generation with Planning based Neural Network” , 先自己爬取古诗词网站,然后对诗歌鉴赏进行自然语言处理,构建知识图谱作为基础的知识积累。最后实现“为你写…☆23Updated 6 years ago
- 微博粉丝情绪分析☆44Updated 8 years ago
- 新浪微博模拟登陆 (Micro-blog Sina simulated landing) 和 数据清洗主包括 断句、标点清洗 、停用词清洗 (Data cleaning☆9Updated 8 years ago
- spark处理大规模语料库统计词频☆40Updated 9 years ago
- 基于scrapy-redis的分布式新闻爬虫,可同时获取腾讯、网易、搜狐、凤凰网、新浪、东方财富、人民网等各大平台新闻资讯☆44Updated 7 years ago
- 中文分词程序,可以在没有中文语料库的情况下通过相关性将一段文本中的中文词汇抽取出来☆56Updated 12 years ago
- 知网、搜狗微信、搜狗新闻的爬虫☆15Updated 6 years ago
- 基于scrapy的新闻爬虫☆102Updated 5 years ago
- 从门户网站爬取新闻的摘要-标题对使用seq2seq根据摘要生成标题☆45Updated 7 years ago
- 用python判断微博用户的影响力☆53Updated 9 years ago
- 利用深度学习实现中文分词☆61Updated 7 years ago
- 个人实现的基于Django与semantic-ui的语言计算实验平台, 功能包括自然语言综合处理,词语计算,社会热点计算,人物计算,文学画像,职位画像等社会计算功能☆29Updated 7 years ago
- 基于文字密度的新闻正文提取模块,兼容python2和python3,传入新闻网址或者网页源码即可返回标题,发布时间和正文内容。☆14Updated 6 years ago