logan-zou / Tutorial_for_developing_LLM_application
一个面向小白的大模型应用开发课程
☆41Updated 10 months ago
Related projects: ⓘ
- 大模型/LLM推理和部署理论与实践☆35Updated last month
- ☆22Updated last year
- ☆153Updated 6 months ago
- 学习开源chatGPT类模型的指南,汇总各种训练数据获取、模型微调、模型服务的方法,以及记录自己操作总遇到的各种常见坑,欢迎收藏、转发,希望能帮你省一些时间☆67Updated 11 months ago
- 快速入门RAG与私有化部署☆114Updated 5 months ago
- 从小说中提取对话数据集☆77Updated 3 months ago
- ChatGPT WebUI using gradio. 给 LLM 对话和检索知识问答RAG提供一个简单好用的Web UI界面☆84Updated 3 weeks ago
- ChatGLM2-6B-Explained☆33Updated last year
- ☆7Updated 3 months ago
- 大语言模型ChatGLM-6B为基座,接入文档阅读功能进行实时问答,可上传txt/docx/pdf多种文件类型。☆36Updated last year
- ☆39Updated 5 months ago
- Generate dialog data from documents using LLM like ChatGLM2 or ChatGPT;利用ChatGLM2,ChatGPT等大模型根据文档生成对话数据集☆135Updated 10 months ago
- 数据科学教程案例☆88Updated last month
- Ziya-LLaMA-13B是IDEA基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。本文主要用于Ziya-…☆42Updated last year
- 基于BM25、BGE、OpenAI Embedding检索算法的检索增强生成RAG示例,支持OpenAI风格的大模型服务☆81Updated 2 months ago
- PDF解 析(文字,章节,表格,图片,参考),基于大模型(ChatGLM2-6B, RWKV)+langchain+streamlit的PDF问答,摘要,信息抽取☆143Updated 11 months ago
- Legal-Eagle-InternLM 是一个基于商汤科技和上海人工智能实验室推出的书生浦语大模型InternLM的法律问答机器人。旨在为用户提供符合3H(即Helpful、Honest、Harmless)原则的专业、智能、全面的法律服务的法律领域大模型。☆34Updated 6 months ago
- ☆35Updated 3 months ago
- 我的Datawhale组队学习,在线阅读地址:https://relph1119.github.io/my-team-learning☆58Updated 6 months ago
- 一些 LLM 方面的从零复现笔记☆104Updated 3 months ago
- ☆45Updated last month
- 与Datawhale组织的现有仓库以及学习内容对话——快速找到你想学习的内容和贡献内容!☆26Updated 4 months ago
- 阿里天池: 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答 baseline 80+☆63Updated 8 months ago
- 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答, 75+ baseline☆53Updated 9 months ago
- 基于ChatGLM3基座模型和LLAMA-Factory框架进行微调的一个中医问答机器人☆64Updated 8 months ago
- chatglm-6B for tools application using langchain☆76Updated last year
- baichuan and baichuan2 finetuning and alpaca finetuning☆32Updated 4 months ago
- ☆40Updated 6 months ago
- 基于ReAct手搓一个Agent Demo☆99Updated 4 months ago
- 大模型技术栈一览☆47Updated last week