songyingxin / Novel-LLMLinks
基于自回归模型与现有的开源大模型,训练小说大模型
☆36Updated 2 years ago
Alternatives and similar repositories for Novel-LLM
Users that are interested in Novel-LLM are comparing it to the libraries listed below
Sorting:
- 想要从零开始训练一个中文的mini大语言模型,可以进行基本的对话,模型大小根据手头的机器决定☆63Updated last year
- ☆54Updated last year
- 首个llama2 13b 中文版模型 (Base + 中文对话SFT,实现流畅多轮人机自然语言交互)☆91Updated 2 years ago
- Alpaca Chinese Dataset -- 中文指令微调数据集☆217Updated last year
- 千问14B和7B的逐行解释☆63Updated 2 years ago
- 👋 欢迎来到 ChatGLM 创意世界!你可以使用修订和续写的功能来生成创意内容!☆247Updated last year
- 从langchain-ChatGLM基础上修改的一个可以加载TigerBot模型的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。☆111Updated 2 years ago
- qwen models finetuning☆104Updated 8 months ago
- 基于ChatGLM3基座模型和LLAMA-Factory框架进行微调的一个中医问答机器人☆101Updated last year
- Train an LLM LoRA using a specific dataset to enable the LLM to continue stories in a specific style based on the plot and background.通过特…☆44Updated last year
- Phi2-Chinese-0.2B 从0开始训练自己的Phi2中文小模型,支持接入langchain加载本地知识库做检索增强生成RAG。Training your own Phi2 small chat model from scratch.☆577Updated last year
- Humanable Chat Generative-model Fine-tuning | LLM微调☆207Updated 2 years ago
- 基于winform编写了一个美观的ChatGLM客户端,支持流式输出,兼容官方api☆31Updated 2 years ago
- ✏️0成本LLM微调上手项目,⚡️一步一步使用colab训练法律LLM,基于microsoft/phi-1_5、chatglm3,包含lora微调,全参微调☆80Updated last year
- ☆167Updated last year
- chatglm3base模型的有监督微调SFT☆77Updated 2 years ago
- 使用甄嬛语料微调的chatglm☆87Updated 2 years ago
- chatglm-6b微调/LORA/PPO/推理, 样本为自动生成的整数/小数加减乘除运算, 可gpu/cpu☆164Updated 2 years ago
- Llama3-Chinese是以Meta-Llama-3-8B为底座,使用 DORA + LORA+ 的训练方法,在50w高质量中文多轮SFT数据 + 10w英文多轮SFT数据 + 2000单轮自我认知数据训练而来的大模型。☆295Updated last year
- 在中文开源大模型的基础上进行定制化的微调,拥有自己专属的语言模型。☆51Updated 2 years ago
- 利用LLM+敏感词库,来自动判别是否涉及敏感词。☆132Updated 2 years ago
- 实现一种多Lora权值集成切换+Zero-Finetune零微调增强的跨模型技术方案,LLM-Base+LLM-X+Alpaca,初期,LLM-Base为Chatglm6B底座模型,LLM-X是LLAMA增强模型。该方案简易高效,目标是使此类语言模型能够低能耗广泛部署,并最…☆116Updated 2 years ago
- Q&A based on elasticsearch+langchain+chatglm2 | 基于elasticsearch,langchain,chatglm2的自有知识库问答☆244Updated 2 years ago
- 阿里通义千问(Qwen-7B-Chat/Qwen-7B), 微调/LORA/推理☆127Updated last year
- 部署你自己的OpenAI api🤩, 基于flask, transformers (使用 Baichuan2-13B-Chat-4bits 模型, 可以运行在单张Tesla T4显卡) ,实现了OpenAI中Chat, Models和Completions接口,包含流式响…☆96Updated 2 years ago
- 基于ChatGLM-6b+langchain实现本地化知识库检索与智能答案生成☆23Updated 2 years ago
- 中文大模型微调(LLM-SFT), 数学指令数据集MWP-Instruct, 支持模型(ChatGLM-6B, LLaMA, Bloom-7B, baichuan-7B), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微…☆213Updated last year
- 大语言模型应用:RAG、NL2SQL、聊天机器人、预训练、MOE混合专家模型、微调训练、强化学习、天池数据竞赛☆73Updated 9 months ago
- Unsloth框架在Windows平台微调训练Qwen2大模型,非WSL☆61Updated last year
- 从小说中提取对话数据集☆282Updated 2 months ago