ArtificialZeng / ChatGLM-Efficient-Tuning-Explained
☆23Updated last year
Alternatives and similar repositories for ChatGLM-Efficient-Tuning-Explained
Users that are interested in ChatGLM-Efficient-Tuning-Explained are comparing it to the libraries listed below
Sorting:
- ChatGLM2-6B微调, SFT/LoRA, instruction finetune☆107Updated last year
- GoGPT:基于Llama/Llama 2训练的中英文增强大模型|Chinese-Llama2☆78Updated last year
- moss chat finetuning☆50Updated last year
- 百川Dynamic NTK-ALiBi的代码实现:无需微调即可推理更长文本☆47Updated last year
- 实现了Baichuan-Chat微调,Lora、QLora等各种微调方式,一键运行。☆70Updated last year
- 大语言模型训练和服务调研☆37Updated last year
- deep training task☆29Updated 2 years ago
- 支持ChatGLM2 lora微调☆40Updated last year
- llama信息抽取实战☆100Updated 2 years ago
- GoGPT中文指令数据集构造☆10Updated last year
- 使用qlora对中文大语言模型进行微调,包含ChatGLM、Chinese-LLaMA-Alpaca、BELLE☆86Updated last year
- 一套代码指令微调大模型☆39Updated last year
- ☆43Updated last year
- BLOOM 模型的指令微调☆24Updated last year
- ChatGLM2-6B-Explained☆35Updated last year
- 骆驼QA,中文大语言阅读理解模型。☆74Updated last year
- make LLM easier to use☆59Updated last year
- 文本智能校对大赛(Chinese Text Correction)的baseline☆67Updated 2 years ago
- LORA微调BLOOMZ,参考BELLE☆25Updated 2 years ago
- Ziya-LLaMA-13B是IDEA基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。本文主要用于Ziya-…☆45Updated last year
- 用于微调LLM的中文指令数据集☆26Updated 2 years ago
- 专注于中文领域大语言模型,落地到某个行业某个领域,成为一个行业大模型、公司级别或行业级别领域大模型。☆117Updated 2 months ago
- JurisLMs: Jurisprudential Language Models☆22Updated last year
- basic framework for rag(retrieval augment generation)☆84Updated last year
- 基于simcse的中文句向量生成☆15Updated 2 years ago
- large language model training-3-stages+deployment☆48Updated last year
- 零样本学习测评基准,中文版☆56Updated 3 years ago
- 本项目由三个模块构成。意图识别:判断用户的意图是业务型还是闲聊型;模型检索:该部分构建一个语料库,当用户 发起新的query(通过意图识别判断为业务型对话)时,为用户匹配query检索的最佳response,使用HSWN进行召回(粗排), 然后构建句子的相似度,并利用Lig…☆11Updated 4 years ago
- 通用简单工具项目☆16Updated 7 months ago
- ☆57Updated 2 years ago