songyingxin / Novel-LLM
基于自回归模型与现有的开源大模型,训练小说大模型
☆25Updated last year
Related projects ⓘ
Alternatives and complementary repositories for Novel-LLM
- 首个llama2 13b 中文版模型 (Base + 中文对话SFT,实现流畅多轮人机自然语言交互)☆89Updated last year
- 使用甄嬛语料微调的chatglm☆84Updated last year
- 基于winform编写了一个美观的ChatGLM客户端,支持流式输出,兼容官方api☆30Updated last year
- ☆37Updated 7 months ago
- ChatGLM-6B fine-tuning.☆135Updated last year
- 阿里SenseVoice的fastpi封装,采用onnx发布,附带量化模型,支持GPU。支持从URL文件进行语音识别。☆46Updated 2 months ago
- 实现一种多Lora权值集成切换+Zero-Finetune零微调增强的跨模型技术方案,LLM-Base+LLM-X+Alpaca,初期,LLM-Base为Chatglm6B底座模型,LLM-X是LLAMA增强模型。该方案简易高效,目标是使此类语言模型能够低能耗广泛部署,并最…☆117Updated last year
- share data, prompt data , pretraining data☆35Updated 11 months ago
- 多显卡部署版 | ChatGLM-6B:开源双语对话语言模型 | An Open Bilingual Dialogue Language Model☆62Updated last year
- chatglm-6b微调/LORA/PPO/推理, 样本为自动生成的整数/小数加减乘除运算, 可gpu/cpu☆163Updated last year
- self-host ChatGLM-6B API made with fastapi☆78Updated last year
- 在中文开源大模型的基础上进行定制化的微调,拥有自己专属的语言模型。☆44Updated last year
- Claude api 搭建的chatgpt网页☆47Updated last year
- 想要从零开始训练一个中文的mini大语言模型,可以进行基本的对话,模型大小根据手头的机器决定☆52Updated 3 months ago
- ✅4g GPU可用 | 简易实现ChatGLM单机调用多个计算设备(GPU、CPU)进行推理☆34Updated last year
- 使用qlora对中文大语言模型进行微调,包含ChatGLM、Chinese-LLaMA-Alpaca、BELLE☆85Updated last year
- 供AI训练的中文数据集(持续更新。。。)与AI公司图谱,目前的数据集餐饮行业8000问,百度知道,Alpaca中文数据集,计算机领域数据集,Vicuna数据集,RedPajama数据集,Wikipedia中文词条数据集,网站论坛问答数据集☆53Updated 11 months ago
- ☆72Updated last year
- ☆92Updated 6 months ago
- 【技术篇】个人微信公众号对接chatGLM-6B☆15Updated last year
- optimize your prompt like promptperfect|万能提示词|大语言模型提示词优化☆34Updated last year
- ChatGLM2-6B微调, SFT/LoRA, instruction finetune☆106Updated last year
- moss chat finetuning☆50Updated 7 months ago
- ☆47Updated 3 months ago
- chatglm2 6b finetuning and alpaca finetuning☆144Updated 7 months ago
- qwen-7b and qwen-14b finetuning☆84Updated 7 months ago
- clueai工具包: 3行代码3分钟,自定义需要的API!☆231Updated last year
- 基于大语言模型(LLM)和多智能体(Multi-Agent),探究AI写小说能力的边界☆127Updated 2 months ago
- 从小说中提取对话数据集☆103Updated 5 months ago