super-wuliao / LoRA-ChatGLM-Chinese-Alpaca
使用LoRA对ChatGLM/Alpaca等进行进一步指令微调,之后融合模型并继续使用LoRA进行垂直领域(中文语法纠错优先)的模型训练
☆43Updated last year
Alternatives and similar repositories for LoRA-ChatGLM-Chinese-Alpaca:
Users that are interested in LoRA-ChatGLM-Chinese-Alpaca are comparing it to the libraries listed below
- ChatGLM-6B HTTP流式解码API的Flask、FastAPI实现,以及开箱即用的Web页面。 a stream decoding demo of ChatGLM-6B using Flask or FastAPI, with web page out-of-th…☆92Updated 11 months ago
- 实现一种多Lora权值集成切换+Zero-Finetune零微调增强的跨模型技术方案,LLM-Base+LLM-X+Alpaca,初期,LLM-Base为Chatglm6B底座模型,LLM-X是LLAMA增强模型。该方案简易高效,目标是使此类语言模型能够低能耗广泛部署,并最…☆117Updated last year
- ChatGLM-6B fine-tuning.☆135Updated last year
- chatglm-6b微调/LORA/PPO/推理, 样本为自动生成的整数/小数加减乘除运算, 可gpu/cpu☆164Updated last year
- 打造人人都会的NLP,开源不易,记得star哦☆101Updated last year
- chatglm2 6b finetuning and alpaca finetuning☆145Updated 8 months ago
- 使用qlora对中文大语言模型进行微调,包含ChatGLM、Chinese-LLaMA-Alpaca、BELLE☆85Updated last year
- 基于sentence transformers和chatglm实现的文档搜索工具☆154Updated last year
- 专注于中文领域大语言模型,落地到某个行业某个领域,成为一个行业大模型、公司级别或行业级别领域大模型。☆115Updated 4 months ago
- llama inference for tencentpretrain☆96Updated last year
- ChatGLM2-6B微调, SFT/LoRA, instruction finetune☆105Updated last year
- Humanable Chat Generative-model Fine-tuning | LLM微调☆206Updated last year
- CIKM2023 Best Demo Paper Award. HugNLP is a unified and comprehensive NLP library based on HuggingFace Transformer. Please hugging for NL…☆383Updated last year
- 基于chatglm快速搭建文档问答机器人☆88Updated last year
- chatglm-6B for tools application using langchain☆76Updated last year
- 基于ChatGLM-6b+langchain实现本地化知识库检索与智能答案生成☆24Updated last year
- 骆驼QA,中文大语言阅读理解模型。☆74Updated last year
- ChatGLM 6B 的模型与UI,通过 LangChain 与向量匹配实现本地知识库问答,支持流式输出☆110Updated last year
- 微调ChatGLM☆124Updated last year
- 使用甄嬛语料微调的chatglm☆84Updated last year
- 利用LLM+敏感词库,来自动判别是否涉及敏感词。☆108Updated last year
- 基于 LoRA 和 P-Tuning v2 的 ChatGLM-6B 高效参数微调☆54Updated last year
- AGI模块库架构图☆75Updated last year
- 📔 对Chinese-LLaMA-Alpaca进行使用说明和核心代码注解☆50Updated last year
- 定制化chatgpt:多种超低成本定制化的chatgpt平替方案,带模型和数据且完整训练预测流程,可在线使用(仅限用于学术测试)[已有ChatGLM的LoRA与pt2方案]☆34Updated last year
- kbqa,langchain,large langauge model, chatgpt☆78Updated 2 months ago
- Ziya-LLaMA-13B是IDEA基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。本文主要用于Ziya-…☆45Updated last year