Chinese-boy / Many-Translaters
谷歌翻译,360翻译,iCIBA翻译,有道翻译,免费API
☆181Updated 2 years ago
Alternatives and similar repositories for Many-Translaters:
Users that are interested in Many-Translaters are comparing it to the libraries listed below
- 百度翻译 API 破解☆96Updated 3 years ago
- 今日头条新闻详情页面爬取,逆向 Cookies 中 __ac_signature 生成过程☆34Updated 4 years ago
- 通用新闻类网站分布式爬虫☆74Updated 6 years ago
- 古诗词语料库☆129Updated 7 years ago
- 对小说文本进行分析,提炼小说剧情内容和人物关系☆83Updated 5 years ago
- 今日热榜项目TopList的Python实现,异步爬取微博热榜,知乎,V2EX,GIthub,通过Flask展示。☆70Updated 5 years ago
- 中国知网爬虫☆149Updated 7 years ago
- 文本生成,可用于作诗、写小说☆124Updated 6 years ago
- 互联网在线翻译引擎爬虫集合,包含谷歌翻译、百度翻译、有道翻译、必应翻译等引擎。Internet online translation engine crawler collection, including Google translation, Baidu transla…☆80Updated 3 years ago
- 名人名言,格言网,整站数据获取爬虫。☆17Updated 5 years ago
- 各种爬虫:爱企查爬虫,网上114企业信息爬虫,抖音视频爬虫,wipo爬虫, 专利信息爬虫(patentscope)☆71Updated 3 years ago
- 淘宝爬虫命令行版,指定爬取淘宝商品和评论,利用selenium爬取商品信息,requests爬取评论信息。☆91Updated 4 years ago
- 天猫爬虫(大量注释,readme有思路分析)☆23Updated 5 years ago
- Free Google Translator API 免费的Google翻译☆192Updated 2 years ago
- 今日头条 、淘宝 、微博 、斗鱼 、抖音 、哔哩哔哩 、有道翻译、steam网站以及网易云音乐爬取☆59Updated 4 years ago
- 一些 Python 爬虫练习:bilibili用户信息爬取、下载工具、房天下新房二手房redis分布式爬虫、简书全站文章爬取、观察者网站首页新闻爬取、淘宝模拟登陆、淘宝搜索商品信息爬取及可视化展示、知乎问题回答信息爬取\抖音无水印视频下载☆127Updated last month
- 基于Scrapy的QQ音乐爬虫(QQ Music Spider),爬取歌曲信息、歌词、精彩评论等,并且分享了QQ音乐中排名前6400名的内地和港台歌手的49万+的音乐语料☆333Updated 9 months ago
- Weibo Spider☆48Updated 7 years ago
- 深度学习模型自动识别验证码,python爬虫库自动管理会话,通过简单易用的API,实现知乎数据的爬取☆77Updated 2 years ago
- 抖音用户分享主页信息和无水印视频链接抓取☆45Updated 2 years ago
- 用Python实现图像的手绘化☆56Updated 2 years ago
- 小红书数据抓取☆171Updated 6 years ago
- 微信公众号爬虫,可抓取文章与评论☆45Updated 5 years ago
- ☆37Updated 5 years ago
- scrapy框架爬取51job(scrapy.Spider),智联招聘(扒接口),拉勾网(CrawlSpider)☆198Updated last year
- python爬取QQ音乐某个歌手的全部专辑歌词并生成文字云图片☆28Updated 8 years ago
- 基于selenium的轻量级新浪微博爬虫,可实现:1.后台自动爬取微博搜索结果/2.按时间段爬取搜索结果/3.爬取用户基本信息☆49Updated 5 years ago
- Weibo Spider Using Scrapy☆137Updated 7 years ago
- 微信公众号的爬虫项目☆36Updated 5 years ago
- 文本分类是指在给定分类体系下 , 根据文本的内容自动确定文本类别的过程。首先我们根据scrapy爬虫根据中国知网URL的规律,爬取70多万条2014年公开的发明专利,然后通过数据清洗筛选出了60多万条含标签数据。通过TF-IDF对60多万条本文进行词频提取,依照词频排序提取…☆106Updated 7 years ago