Focusshang / Tutorial
☆12Updated 10 months ago
Alternatives and similar repositories for Tutorial:
Users that are interested in Tutorial are comparing it to the libraries listed below
- 学习开源chatGPT类模型的指南,汇总各种训练数据获取、模型微调、模型服务的方法,以及记录自己操作总遇到的各种常见坑,欢迎收藏、转发,希望能帮你省一些时间☆74Updated last year
- qwen ai agent☆124Updated last year
- kbqa,langchain,large langauge model, chatgpt☆79Updated 4 months ago
- 中文世界的NLP自动标注开源工具,简单样本,交给LabelFast。☆63Updated last month
- chatglm-6B for tools application using langchain☆75Updated last year
- ChatGPT WebUI using gradio. 给 LLM 对话和检索知识问答RAG提供一个简单好用的Web UI界面☆112Updated 6 months ago
- Generate dialog data from documents using LLM like ChatGLM2 or ChatGPT;利用ChatGLM2,ChatGPT等大模型根据文档生成对话数据集☆151Updated last year
- 快速入门RAG与私有化部署☆151Updated 10 months ago
- RAG向量召回示例☆108Updated last year
- chatglm3base模型的有监督微调SFT☆74Updated last year
- 阿里通义千问(Qwen-7B-Chat/Qwen-7B), 微调/LORA/推理☆80Updated 9 months ago
- 在本项目中模拟健康档案私有知识库构建和检索全流程,通过一份代码实现了同时支持多种大模型(如OpenAI、阿里通义千问等)的RAG(检索增强生成)功能:(1)离线步骤:文档加载->文档切分->向量化->灌入向量数据库;在线步骤:获取用户问题->用户问题向量化->检索向量数据库…☆86Updated 5 months ago
- 本项目是针对RAG中的Retrieve阶段的召回技术及算法效果所做评估实验。使用主体框架为LlamaIndex.☆210Updated 2 months ago
- Qwen1.5-SFT(阿里, Ali), Qwen_Qwen1.5-2B-Chat/Qwen_Qwen1.5-7B-Chat微调(transformers)/LORA(peft)/推理☆53Updated 9 months ago
- 基于大语言模型的检索增强生成RAG示例☆121Updated 2 months ago
- llm-medical-data:用于大模型微调训练的医疗数据集☆89Updated last year
- Ziya-LLaMA-13B是IDEA基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。本文主要用于Ziya-…☆45Updated last year
- Q&A based on elasticsearch+langchain+chatglm2 | 基于elasticsearch,langchain,chatglm2的自有知识库问答☆235Updated last year
- 一种利用Langchain框架和本地向量库实现的对话式BI,它的目标是帮助用户寻找、理解数据知识,并能够分析数据、洞察结果,通过自然语言对话,降低数据分析的门槛。☆99Updated 11 months ago
- prompt engineering ,llm,text2sql☆34Updated last year
- 本项目致力于为大模型领域的初学者提供全面的知识体系,包括基础和高阶内容,以便开发者能迅速掌握大模型技术栈并全面了解相关知识。☆48Updated last month
- 基于ChatGLM3基座模型和LLAMA-Factory框架进行微调的一个中医问答机器人☆78Updated last year
- 千问14B和7B的逐行解释☆55Updated last year
- 专注于对话系统领域的技术分享,重点写《Dify应用操作和源码剖析》专栏。☆76Updated 7 months ago
- ChatGLM2-6B微调, SFT/LoRA, instruction finetune☆105Updated last year
- Agentica: Effortlessly Build Intelligent, Reflective, and Collaborative Multimodal AI Agents! 轻松构建智能、具备反思能力、可协作的多模态AI Agent。☆129Updated last month
- 阿里天池: 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答 baseline 80+☆87Updated last year
- qwen-7b and qwen-14b finetuning☆90Updated 10 months ago
- 中文大模型微调(LLM-SFT), 数学指令数据集MWP-Instruct, 支持模型(ChatGLM-6B, LLaMA, Bloom-7B, baichuan-7B), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微…☆185Updated 9 months ago
- ☆74Updated last year