SchrodingersBug / CSDN_SearchEngine
通过CSDN爬虫爬取博客,利用Whoosh实现倒排索引与排序,django作为后端实现小型CSDN搜索引擎。并实现高亮、相关搜索等功能。
☆30Updated 6 years ago
Related projects ⓘ
Alternatives and complementary repositories for CSDN_SearchEngine
- 【信息检索课程设计】sdu新闻网站全站爬取+索引构建+搜索引擎☆57Updated 6 months ago
- python搭建搜索引擎☆30Updated 2 years ago
- 社会信息检索作业,实现简单的搜索引擎,计算TFIDF值以及两个句子的相似度☆19Updated 6 years ago
- 简单搜索引擎,实现了拼写检查、倒排索引 、文档排序☆19Updated 5 years ago
- 基于 Scrapy 的新闻智能分类微信小程序,是一个文本分类相关的应用,目的是打造出一个可以对新闻进行智能分类的微信小程序。技术栈:Python + Scrapy + MongoDB + scikit-learn + Flask + 微信小程序,涉及爬虫、文本分类、Web …☆58Updated 5 years ago
- python实现的基于倒排索引和向量空间模型实现的信息检索系统☆52Updated 7 years ago
- 携程旅游景点爬虫☆21Updated 5 years ago
- 猫头鹰搜索引擎,爬虫,分词,索引,搜索☆27Updated 9 years ago
- 对汽车之家论坛里的评论数据处理和分析,利用用户潜在行为数据得出用户行为特征,采用LDA主题模型得出用户评论的主题特征,采用Word2Vec词向量模型得出用户评论的文本内容特征,采用K-Means聚类得出水军文本类别,结合用户行为特征,最终实现了对网络水军的识别。☆22Updated 4 years ago
- 文本聚类 k-means算法及实战☆55Updated 5 years ago
- 基于tornado实现的小型推荐系统的web应用,使用mysql数据库,基于用户的协同过滤算法以及基于内容的分类算法做推荐。☆20Updated 8 years ago
- 中文问答系统:使用NLP相关技术,对搜索引擎,问答社区等进行信息抽取,文本概括等,支持通识问答,社区问答和部分专业问答☆30Updated 2 years ago
- 基于lucene的新闻搜索引擎[中科院现代信息检索项目作业]☆17Updated 8 years ago
- Python网络爬虫与推荐算法新闻推荐平台:网络爬虫:通过Python实现新浪新闻的爬取,可爬取新闻页面上的标题、文本、图片、视频链接(保留排版) 推荐算法:权重衰减+标签推荐+区域推荐+热点推荐☆99Updated 3 years ago
- 依据香港中文大 学设计的规则系统,先用小样本评论建立初始关键词库,再结合18种句式逐条匹配评论,能够快速准确地识别评论对象及情感极性。经多次迭代优化关键词库后,达到较高准确率的基础上,使用Tableau进一步分析数据,识别出客户集中关注的商品属性、普遍好评差评的商品属性;通过…☆53Updated 7 years ago
- 热门推荐、基于内容推荐、基于用户协同过滤推荐、基于物品协同过滤推荐☆35Updated 5 years ago
- 第二届全国大数据比赛-个性化新闻推荐☆67Updated 9 years ago
- 该项目是基于Scrapy框架的Python新闻爬虫, 能够爬取网易,搜狐,凤凰和澎湃网站上的新闻,将标题,内容,评论,时间等内容整理并保存到本地☆36Updated 5 years ago
- 毕业设计-主动学习推荐系统的实现☆33Updated 3 months ago
- 豆瓣电影短评情感分析(二分类)☆26Updated 5 years ago
- ElasticSearch+Django+Scrapy搜索引擎☆27Updated last year
- 新闻检索:爬虫定向采集3-4个网页,实现网页信息的抽取、检索和索引。网页个数不少于10个,能按时间、相关度、热度等属性进行排序,并实现相似主题的自动聚类。可以实现:有相关搜索推荐、snippet生成、结果预览(鼠标移到相关结果, 能预览)功能☆128Updated 8 years ago
- 基于LDA+SVM可拓展的短文本分类。股市舆情监控系统☆29Updated 5 years ago
- 基于Lucene、Servlet新闻搜索引擎☆22Updated 6 years ago
- 文本分类是指在给定分类体系下 , 根据文本的内容自动确定文本类别的过程。首先我们根据scrapy爬虫根据中国知网URL的规律,爬取70多万条2014年公开的发明专利,然后通过数据清洗筛选出了60多万条含标签数据。通过TF-IDF对60多万条本文进行词频提取,依照词频排序提取…☆103Updated 6 years ago
- 豆瓣Top250影评爬虫(用于情感分析语料)☆21Updated last year
- 一个基于elasticsearch开发的搜索引擎网站☆14Updated 2 years ago
- 基于知识图谱的中文旅游领域知识服务平台构建 - 从旅游知识库到旅游知识服务平台☆25Updated 4 years ago
- 文本热点挖 掘,基于DBSCAN聚类模型,对文本的热点事件进行挖掘☆39Updated 4 years ago