xinsblog / chatglm-tiny
从头开始训练一个chatglm小模型
☆47Updated 11 months ago
Related projects: ⓘ
- ChatGLM2-6B微调, SFT/LoRA, instruction finetune☆107Updated last year
- deep learning☆149Updated 2 months ago
- 阿里通义千问(Qwen-7B-Chat/Qwen-7B), 微调/LORA/推理☆63Updated 4 months ago
- 使用qlora对中文大语言模型进行微调,包含ChatGLM、Chinese-LLaMA-Alpaca、BELLE☆86Updated last year
- Alpaca Chinese Dataset -- 中文指令微调数据集【人工+GPT4o持续更新】☆161Updated this week
- Baichuan2代码的逐行解析版本,适合小白☆208Updated last year
- 中文原生检索增强生成测评基准☆92Updated 5 months ago
- A high-throughput and memory-efficient inference and serving engine for LLMs☆120Updated 9 months ago
- 部署你自己的OpenAI api🤩, 基于flask, transformers (使用 Baichuan2-13B-Chat-4bits 模型, 可以运行在单张Tesla T4显卡) ,实现了OpenAI中Chat, Models和Completions接口,包含流式响…☆85Updated 10 months ago
- qwen-7b and qwen-14b finetuning☆82Updated 5 months ago
- 国内首个全参数训练的法律大模型 HanFei-1.0 (韩非)☆91Updated 10 months ago
- 首个llama2 13b 中文版模型 (Base + 中文对话SFT,实现流畅多轮人机自然语言交互)☆89Updated last year
- chatglm-6b微调/LORA/PPO/推理, 样本为自动生成的整数/小数加减乘除运算, 可gpu/cpu☆164Updated last year
- 用于大模型 RLHF 进行人工数据标注排序的工具。A tool for manual response data annotation sorting in RLHF stage.☆240Updated last year
- Imitate OpenAI with Local Models☆83Updated 3 weeks ago
- chatglm2 6b finetuning and alpaca finetuning☆146Updated 5 months ago
- 大语言模型指令调优工具(支持 FlashAttention)☆162Updated 8 months ago
- baichuan LLM surpervised finetune by lora☆57Updated last year
- 实现了Baichuan-Chat微调,Lora、QLora等各种微调方式,一键运行。☆70Updated last year
- llama inference for tencentpretrain☆95Updated last year
- "桃李“: 国际中文教育大模型☆166Updated 10 months ago
- TechGPT: Technology-Oriented Generative Pretrained Transformer☆207Updated last year
- Generate dialog data from documents using LLM like ChatGLM2 or ChatGPT;利用ChatGLM2,ChatGPT等大模型根据文档生成对话数据集☆135Updated 10 months ago
- (1)弹性区间标准化的旋转位置词嵌入编码器+peft LORA量化训练,提高万级tokens性能支持。(2)证据理论解释学习,提升模型的复杂逻辑推理能力(3)兼容alpaca数据格式。☆45Updated last year
- 一个基于HuggingFace开发的大语言模型训练、测试工具。支持各模型的webui、终端预测,低参数量及全参数模型训练(预训练、SFT、RM、PPO、DPO)和融合、量化。☆198Updated 9 months ago
- 基于chatglm快速搭建文档问答机器人☆87Updated last year
- 想要从零开始训练一个中文的mini大语言模型,可以进行基本的对话,模型大小根据手头的机器决定☆47Updated last month
- 雅意信息抽取大模型:在百万级人工构造的高质量信息抽取数据上进行指令微调,由中科闻歌算法团队研发。 (Repo for YAYI Unified Information Extraction Model)☆255Updated last month
- ChatGPT WebUI using gradio. 给 LLM 对话和检索知识问答RAG提供一个简单好用的Web UI界面☆84Updated 3 weeks ago
- ☆37Updated 5 months ago