dataaug / zhihu-spiderLinks
知乎爬虫,用于爬取问题和对应的回答
☆28Updated 2 years ago
Alternatives and similar repositories for zhihu-spider
Users that are interested in zhihu-spider are comparing it to the libraries listed below
Sorting:
- 知乎爬虫☆34Updated last year
- 知乎爬虫,可以爬取知乎上特定问题下的所有回答、单个回答,特定用户的所有回答、文章,话题精华,收藏夹,专栏,文章☆60Updated 5 years ago
- 本爬虫用于爬 取知乎网站问题、回答的相关字段信息,问题的标题、内容、发布时间、话题、回答数量、评论数、点击数、关注数等字段,及对该问题回答的内容,作者、点赞数、评论数、回答时间等等字段信息。可用于对社会话题、热点进行数据分析。☆43Updated 6 years ago
- 本程序支持关键词搜索、热榜、用户信息、回答、专栏文章、评论等信息的抓取☆27Updated 2 years ago
- 本项目是一个微博爬虫项目,旨在通过微博的mid获取到其对应的所有点赞、转发、评论与二级评论的相关数据。☆53Updated 2 years ago
- 小红书关键词笔记搜索Python 爬虫 (csv保存)☆73Updated 2 years ago
- 一个知乎话题、问题、用户信息的爬虫☆25Updated 2 weeks ago
- 爬虫学习。实战:微博各种类型爬虫,唯品会商品,淘宝商品等☆83Updated last year
- 无cookie版微博爬虫,可以连续爬取一个或多个新浪微博用户信息、用户微博及其微博评论转发。☆158Updated 3 years ago
- 情感分析,微博情感分析,微博水军检测,水军检测,营销粉检测,僵尸粉检测,微博爬虫☆68Updated 4 years ago
- B站弹幕、评论爬虫+词云生成☆50Updated 5 years ago
- 各种爬虫:爱企查爬虫,网上114企业信息爬虫,抖音视频爬虫,wipo爬虫, 专利信息爬虫(patentscope)☆74Updated 3 years ago
- 微博的爬虫,从个人主页开始 爬博文和评论,用的scrapy 框架☆30Updated 3 months ago
- [2023.05.09]基于selenium的新浪微博关键字搜索结果全自动爬虫,支持自定义搜素关键字、搜索起始时间、爬取起始页数(以实现中断后接上次继续爬取)。爬取内容包括微博账号、发文时间、发送平台、微博内容、转发次数、评论次数、点赞次数、原博地址。☆32Updated last year
- 关键词爬虫,根据关键词爬取微博、bilibili、知乎、今日头条、微信公众号、抖音、快手、YouTube的图片以及视频,并记录在excel中,可用于构造深度学习的数据集☆106Updated 2 years ago
- 小红书爬取☆133Updated 3 years ago
- 一些 Python 爬虫练习:bilibili用户信息爬取、下载工具、房天下新房二手房redis分布式爬虫、简书全站文章爬取、观察者网站首页新闻爬取、淘宝模拟登陆、淘宝搜索商品信息爬取及可视化展示、知乎问题回答信息爬取\抖音无水印视频下载☆141Updated 5 months ago
- bilibili(B站)视频评论爬虫,爬取多级评论,用户信息,评论信息等内容☆85Updated last year
- 爬取微博关键词相关信息,有远程开发需求可联系,有需要合作加微信: ytouching☆30Updated 4 months ago
- 一个新闻政策类爬虫项目 ,实现上万网站的实时监控、爬取、过滤、存储,具有高可用性和可扩展性。☆38Updated 2 years ago
- 微博爬虫,一个基于Scrapy框架的轻量微博爬虫,Sina Weibo Spider☆135Updated 2 years ago
- Python 爬取B站UP主的所有视频链接及详细信息☆67Updated 10 months ago
- 豆瓣小组爬虫☆110Updated 11 months ago
- 爬取小红书评论区的用户名、小红书号、评论,并保存为excel。☆43Updated 2 years ago
- 基于爬虫批量爬取网页美团、单视频抖音评论☆32Updated last year
- 基于Python3爬取知乎每日热点、每小时更新一次,并归档☆23Updated last month
- 利用scrapy框架爬取了好大夫网站上全国的医院信息(省市、医院名称、级别、类型、部门数量、医生数量、联系电话等)、各省市每个医院的部门信息(所属医院、部门名称、部门简介、部门医生数量等)和每个医院的医生信息(所属医院及部门、姓名、职称、热度、专业技能等),并分别存入mys…☆27Updated 4 years ago
- 澎湃新闻,新浪新闻,腾讯新闻,搜狐新闻,新闻联播,泰晤士报,纽约时报,BBCNews,旨在爬取所有新闻门户网站的新闻,禁止将所得数据商用!☆399Updated 2 years ago
- 最新的自动爬取微信公众号的实时更新文章、历史文章的爬虫,可以设置爬取关键词黑名单和白名单,支持对公众号的自动评论、点赞、转发。☆13Updated last year
- 简单的 python 爬取网站的案例 全网代理、58 到家、房价网、东方财富、ITOrange、邮政编码、康美中药、拉钩、猫眼、投融资、中国裁判文书网、自如网、百科网、中国房价网、网易云音乐、去哪儿网、汽车之家☆94Updated 2 years ago