mark1879 / baichuan-7B-FinetuningLinks
baichuan-7B 微调 C++ 面试大模型
☆14Updated 2 years ago
Alternatives and similar repositories for baichuan-7B-Finetuning
Users that are interested in baichuan-7B-Finetuning are comparing it to the libraries listed below
Sorting:
- 基于ChatGLM3基座模型和LLAMA-Factory框架进行微调的一个中医问答机器人☆95Updated last year
- Qwen1.5-SFT(阿里, Ali), Qwen_Qwen1.5-2B-Chat/Qwen_Qwen1.5-7B-Chat微调(transformers)/LORA(peft)/推理☆67Updated last year
- Legal-Eagle-InternLM 是一个基于商汤科技和上海人工智能实验室推出的书生浦语大模型InternLM的法律问答机器人。旨在为用户提供符合3H(即Helpful、Honest、Harmless)原则的专业、智能、全面的法律服务的法律领域大模型。☆60Updated last year
- 以InternLM2-chat-7为基座模型,以常用中药等为数据集,微调的大模型。中医聊天小助手。☆14Updated last year
- 利用开源大模型,通过RAG(检索增强生成)技术,实现基于企业内部知识图谱的,可内网运行的大模型智能客服☆72Updated last year
- 基于大语言模型的检索增强生成RAG示例☆158Updated 4 months ago
- ChatGLM-6B添加了RLHF的实现,以及部分核心代码的逐行讲解 ,实例部分是做了个新闻短标题的生成,以及指定context推荐的RLHF的实现☆88Updated 2 years ago
- 本项目用于文档问答,使用向量嵌入 + ES 做召回,使用Rerank模型作为精排,再使用LLM做文档问答,Web框架使用Flask。☆31Updated 6 months ago
- 基于pytorch的中文意图识别和槽位填充☆190Updated last month
- ChatGLM2-6B微调, SFT/LoRA, instruction finetune☆110Updated 2 years ago
- ChatGLM2-6B-Explained☆36Updated 2 years ago
- 想要从零开始训练一个中文的mini大语言模型,可以进行基本的对话,模型大小根据手头的机器决定☆62Updated last year
- TechGPT: Technology-Oriented Generative Pretrained Transformer☆226Updated 2 years ago
- 一套代码指令微调大模型☆39Updated 2 years ago
- llm-medical-data:用于大模型微调训练的医疗数据集☆127Updated 2 years ago
- 大语言模型微调的项目,包含了使用QLora微调ChatGLM和LLama☆27Updated 2 years ago
- "桃李“: 国际中文教育大模型☆183Updated last year
- 快速入门RAG与私有化部署☆206Updated last year
- 使用qlora对中文大语言模型进行微调,包含ChatGLM、Chinese-LLaMA-Alpaca、BELLE☆90Updated 2 years ago
- kbqa,langchain,large langauge model, chatgpt☆81Updated 11 months ago
- 学习开源chatGPT类模型的指南,汇总各种训练数据获取、模型微调、模型服务的方法,以及记录自己操作总遇到的各种常见坑,欢迎收藏、转发,希望能帮你省一些时间☆76Updated last year
- 一个基于HuggingFace开发的大语言模型训练、测试工具。支持各模型的webui、终端预测,低参数量及全参数模 型训练(预训练、SFT、RM、PPO、DPO)和融合、量化。☆219Updated last year
- qwen models finetuning☆103Updated 6 months ago
- Deepspeed、LLM、Medical_Dialogue、医疗大模型、预训练、微调☆280Updated last year
- qwen ai agent☆139Updated last year
- 中文大模型微调(LLM-SFT), 数学指令数据集MWP-Instruct, 支持模型(ChatGLM-6B, LLaMA, Bloom-7B, baichuan-7B), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微…☆211Updated last year
- ChatGPT WebUI using gradio. 给 LLM 对话和检索知识问答RAG提供一个简单好用的Web UI界面☆135Updated last year
- baichuan LLM surpervised finetune by lora☆64Updated 2 years ago
- 雅意信息抽取大模型:在百万级人工构造的高质量信息抽取数据上进行指令微调,由中科闻歌算法团队研发。 (Repo for YAYI Unified Information Extraction Model)☆310Updated last year
- LLM for NER☆82Updated last year