mmlzhang / cnki_patentLinks
中国知网专利爬虫
☆18Updated 2 years ago
Alternatives and similar repositories for cnki_patent
Users that are interested in cnki_patent are comparing it to the libraries listed below
Sorting:
- [数据+代码] 上市公司年报文本分词、关键词词频统计+数字化转型关键词表☆30Updated 2 years ago
- 知网爬虫cnkispider,输入关键字爬取知网检索数据☆34Updated 7 years ago
- 自制Python玩具小爬虫,用来爬取失信被执行人、专利等数据☆20Updated 4 years ago
- 爬取谷歌专利☆9Updated 5 years ago
- 爬取专利信息的爬虫☆26Updated 8 years ago
- 专利爬虫,基于request模块的爬虫,保存格式为csv☆11Updated 7 years ago
- ☆28Updated 2 years ago
- 【微信公众号:大邓和他的python】, Python语法快速入门https://www.bilibili.com/video/av44384851 Python网络爬虫快速入门https://www.bilibili.com/video/av72010301…☆100Updated 3 years ago
- This repository provides the replication code and data for Kogan, L., Papanikolaou, D., Seru, A. and Stoffman, N., QJE 2017.☆35Updated 3 years ago
- The crawler for data on web of science, especially focus on the analysis of citation data☆14Updated 6 years ago
- 文本分类是指在给定分类体系下 , 根据文本的内容自动确定文本类别的过程。首先我们根据scrapy爬虫根据中国知网URL的规律,爬取70多万条2014年公开的发明专利,然后通过数据清洗筛选出了60多万条含标签数据。通过TF-IDF对60多万条本文进行词频提取,依照词频排序提取…☆107Updated 7 years ago
- 计算传播学编程基础☆20Updated last year
- 法律数据挖掘☆19Updated 4 years ago
- ☆11Updated 2 years ago
- 本仓库收录了我的毕业论文所使用的全部代码。 毕业论文题目《年报文本语气能预示股价崩盘风险吗?——基于 A 股上市公司年报的文本挖掘》。已被本科生毕业论文相关文献库收录,因此您可以查阅论文的正文。☆14Updated 3 years ago
- 微博关键词搜索爬虫、微博爬虫、链家房产爬虫、新浪新闻爬虫、腾讯招聘爬虫、招投标爬虫☆37Updated 6 years ago
- 情感分析,微博情感分析,微博水军检测,水军检测,营销粉检测,僵尸粉检测,微博爬虫☆68Updated 4 years ago
- Code Repository for MS20190155☆150Updated last year
- 知网爬虫,专利、论文项目。仅供学习交流,严禁盈利☆48Updated 2 years ago
- 知网论文数据爬虫☆55Updated last year
- https://github.com/jcgcarranza/respol_patents_code☆34Updated 4 years ago
- 数据集依据与“新冠肺炎”相关的230个主题关键词进行数据采集,抓取了2020年1月1日—2020年2月20日期间共计100万条微博数据,并对其中10万条数据进行人工标注,标注分为三类,分别为:1(积极),0(中性)和-1(消极)☆18Updated 4 years ago
- 裁判文书数据-增量更新☆39Updated 5 years ago
- Python爬取微博,采集的数据属性如下:微博内容,是否原创,转发内容,发布时间,转发数,评论数,点赞数,设备源,微博ID。对于抓取到的页面源码分析不同属性对应的标签分别提取数据。最后将采集到的数据保存为csv格式,供数据分析使用。☆33Updated 5 years ago
- 一个中国知网的爬虫工具,给定作者,可以获得该作者的所有文献的题录☆13Updated 6 years ago
- 《计算新闻传播学》课程☆107Updated 2 years ago
- 利用scrapy框架爬取了好大夫网站上全国的医院信息(省市、医院名称、级别、类型、部门数量、医生数量、联系电话等)、各省市每个医院的部门信息(所属医院、部门名称、部门简介、部门医生数量等)和每个医院的医生信息(所属医院及部门、姓名、职称、热度、专业技能等),并分别存入mys…☆26Updated 4 years ago
- 南京大学《数据新闻》2017 周一 第3-4节 逸B-210 1-18周☆17Updated 6 years ago
- 本项目爬取各省市政府工作报告,试图通过聚类、主题分类等将它们识别区分开来。☆13Updated 6 years ago
- NJU Master Course **Big Data Mining and Analysis**☆132Updated 2 years ago