owenliang / nano-graphragLinks
A simple, easy-to-hack GraphRAG implementation
☆13Updated 11 months ago
Alternatives and similar repositories for nano-graphrag
Users that are interested in nano-graphrag are comparing it to the libraries listed below
Sorting:
- 本项目用于Embedding模型的相关实验,包括Embedding模型评估、Embedding模型微调、Embedding模型量化等。☆58Updated last year
- 基于大语言模型的检索增强生成RAG示例☆154Updated 3 months ago
- 本项目是针对RAG中的Retrieve阶段的召回技术及算法效果所做评估实验。使用主体框架为LlamaIndex.☆274Updated last month
- ☆114Updated last year
- 快速入门RAG与私有化部署☆202Updated last year
- qwen ai agent☆137Updated last year
- 此项目完成了关于 NLP-Beginner:自然语言处理入门练习 的所有任务(文本分类、信息抽取、知识图谱、机器翻译、问答系统、文本生成、Text-to-SQL、文本纠错、文本挖掘、知识蒸馏、模型加速、OCR、TTS、Prompt、embedding等),所有代码都经过测试…☆208Updated last year
- 通义千问的DPO训练☆52Updated 11 months ago
- 阿里天池: 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答 baseline 80+☆110Updated last year
- 大模型检索增强生成技术最佳实践。☆83Updated 11 months ago
- Deepspeed、LLM、Medical_Dialogue、医疗大模型、预训练、微调☆277Updated last year
- 大语言模型应用:RAG、NL2SQL、聊天机器人、预训练、MOE混合专家模型、微调训练、强化学习、天池数据竞赛☆68Updated 6 months ago
- 大模型文本分类☆77Updated last year
- 阿里通义千问(Qwen-7B-Chat/Qwen-7B), 微调/LORA/推理☆114Updated last year
- 一个基于HuggingFace开发的大语言模型训练、测试工具。支持各模型的webui、终端预测,低参数量及全参数模型训练(预训练、SFT、RM、PPO、DPO)和融合、量化。☆218Updated last year
- 手把手带你从0到1实现大模型agent☆120Updated last year
- 大型语言模型实战指南:应用实践与场景落地☆78Updated 11 months ago
- 数据科学教程、大模型实践案例☆145Updated 2 months ago
- 大模型预训练中文语料清洗及质量评估 Large model pre-training corpus cleaning☆69Updated last year
- RAG 论文学习☆161Updated 5 months ago
- basic framework for rag(retrieval augment generation)☆86Updated last year
- Baichuan2代码的逐行解析版本,适合小白☆214Updated last year
- 受到self-instruct启发,除了通用LLM还能做垂直领域的小LLM实现定制效果,通过GPT获得question和answer来作为训练数据☆18Updated 2 years ago
- 雅意信息抽取大模型:在百万级人工构造的高质量信息抽取数据上进行指令微调,由中科闻歌算法团队研发。 (Repo for YAYI Unified Information Extraction Model)☆308Updated last year
- Alpaca Chinese Dataset -- 中文指令微调数据集☆213Updated 10 months ago
- ☆49Updated 3 weeks ago
- 探索 LLM 在法律行业的应用潜力☆91Updated 8 months ago
- fastapi异步IO+threadpool线程池的工作原理☆15Updated last year
- This is a repository used by individuals to experiment and reproduce the pre-training process of LLM.☆463Updated 3 months ago
- deepResearch☆66Updated 4 months ago