south20 / ChatGLM3_Lora_Fine-tuneLinks
本项目对ChatGLM3-6B通过多种方式微调,使模型具备落地潜质(包括但不限于客服、聊天、游戏)
☆33Updated last year
Alternatives and similar repositories for ChatGLM3_Lora_Fine-tune
Users that are interested in ChatGLM3_Lora_Fine-tune are comparing it to the libraries listed below
Sorting:
- qwen ai agent☆143Updated last year
- 基于ChatGLM3基座模型和LLAMA-Factory框架进行微调的一个中医问答机器人☆104Updated last year
- 基于chatglm3-6b模型的lora方法的微调☆82Updated last year
- 手把手带你从0到1实现大模型agent☆121Updated last year
- 大语言模型微调,Qwen2VL、Qwen2、GLM4指令微调☆578Updated 6 months ago
- RAG向量召回示例☆146Updated last year
- 大模型微调工具集合☆26Updated last year
- Chat-甄嬛是利用《甄嬛传》剧本中所有关于甄嬛的台词和语句,基于ChatGLM2进行LoRA微调得到的模仿甄嬛语气的聊天语言模型。☆776Updated 6 months ago
- 阿里通义千问(Qwen-7B-Chat/Qwen-7B), 微调/LORA/推理☆131Updated last year
- Legal-Eagle-InternLM 是一个基于商汤科技和上海人工智能实验室推出的书生浦语大模型InternLM的法律问答机器人。旨在为用户提供符合3H(即Helpful、Honest、Harmless)原则的专业、智能、全面的法律服务的法律领域大模型。☆64Updated last year
- RAGOnMedicalKG,将大模型RAG与KG结合,完成demo级问答,旨在给出基础的思路。☆336Updated last year
- 利用开源大模型,通过RAG(检索增强生成)技术,实现基于企业内部知识图谱的,可内网运行的大模型智能客服☆75Updated last year
- FinQwen: 致力于构建一个开放、稳定、高质量的金融大模型项目,基于大模型搭建金融场景智能问答系统,利用开源开放来促进「AI+金融」。☆425Updated last year
- 大模型文本分类☆91Updated last year
- Generate dialog data from documents using LLM like ChatGLM2 or ChatGPT;利用ChatGLM2,ChatGPT等大模型根据文档生成对话数据集☆163Updated 2 years ago
- Huggingface transformers的中文文档☆284Updated 2 years ago
- ChatGPT WebUI using gradio. 给 LLM 对话和检索知识问答RAG提供一个简单好用的Web UI界面☆138Updated last year
- 快速入门RAG与私有化部署☆211Updated last year
- 学习ChatGLM3模型和LangChain框架的架构与核心功能,并基于LangChain+ChatGLM3实现本地知识库问答。☆39Updated last year
- ☆23Updated last year
- 后稷-首个开源中文农业大模型☆160Updated last year
- 对llama3进行全参微调、lora微调以及qlora微调。☆212Updated last year
- 雅意信息抽取大模型:在百万级人工构造的高质量信息抽取数据上进行指令微调,由中科闻歌算法团队研发。 (Repo for YAYI Unified Information Extraction Model)☆314Updated last year
- RAG兴趣小组,全手写的一个RAG 应用。Langchain的大部分库会很方便,但是你不一定理解其中原理,所以代码尽可能展现基本算法,主打理解RAG的原理☆242Updated last year
- 数据科学教程、大模型实践案例☆147Updated 5 months ago
- [EMNLP 2024] 中文领域心理健康对话大模型MeChat☆499Updated last year
- 机器学习实战案例,涉及机器学习、深度学习等各个方向。每个案例代码量在百行左右。☆216Updated 6 months ago
- A Chinese medical ChatGPT based on LLaMa, training from large-scale pretrain corpus and multi-turn dialogue dataset.☆386Updated 2 years ago
- 从小说中提取对话数据集☆295Updated 3 months ago
- ☆76Updated 2 years ago