KMnO4-zx / huanhuan-chat
Chat-甄嬛是利用《甄嬛传》剧本中所有关于甄嬛的台词和语句,基于ChatGLM2进行LoRA微调得到的模仿甄嬛语气的聊天语言模型。
☆504Updated 2 months ago
Related projects ⓘ
Alternatives and complementary repositories for huanhuan-chat
- 心理健康大模型、LLM、The Big Model of Mental Health、Finetune、InternLM2、InternLM2.5、Qwen、ChatGLM、Baichuan、DeepSeek、Mixtral、LLama3、GLM4、Qwen2、LLama3…☆831Updated 2 weeks ago
- Examples and guides for using the GLM APIs☆795Updated 3 weeks ago
- 中文对话0.2B小模型(ChatLM-Chinese-0.2B),开源所有数据集来源、数据清洗、tokenizer训练、模型预训练、SFT指令微调、RLHF优化等流程的全部代码。支持下游任务sft微调,给出三元组信息抽取微调示例。☆1,228Updated 6 months ago
- Llama3-Tutorial(XTuner、LMDeploy、OpenCompass)☆490Updated 5 months ago
- 通义千问VLLM推理部署DEMO☆437Updated 7 months ago
- ☆479Updated last week
- 🚀WebUI integrated platform for latest LLMs | 各大语言模型的全流程工具 WebUI 整合包。支持主流大模型API接口和开源模型。支持知识库,数据库,角色扮演,mj文生图,LoRA和全参数微调,数据集制作,live2d等全流程应用…☆478Updated 7 months ago
- Tutorial on training, evaluating LLM, as well as utilizing RAG, Agent, Chain to build entertaining applications with LLMs.分享如何训练、评估LLMs,如…☆518Updated 6 months ago
- An open-source educational chat model from ICALK, East China Normal University. 开源中英教育对话大模型。(通用基座模型,GPU部署,数据清理) 致敬: LLaMA, MOSS, BELLE, Z…☆704Updated last month
- [EMNLP'24] CharacterGLM: Customizing Chinese Conversational AI Characters with Large Language Models☆406Updated 7 months ago
- 🌞 CareGPT (关怀GPT)是一个医疗大语言模型,同时它集合了数十个公开可用的医疗微调数据集和开放可用的医疗大语言模型,包含LLM的训练、测评、部署等以促进医疗LLM快速发展。Medical LLM, Open Source Driven for a Healthy…☆752Updated 6 months ago
- 人工精调的中文对话数据集和一段chatglm的微调代码☆1,155Updated 6 months ago
- FinQwen: 致力于构建一个开放、稳定、高质量的金融大模型项目,基于大模型搭建金融场景智能问答系统,利用开源开放来促进「AI+金融」。☆295Updated 4 months ago
- [中文法律大模型] DISC-LawLLM: an intelligent legal system powered by large language models (LLMs) to provide a wide range of legal services.☆549Updated 2 weeks ago
- CMMLU: Measuring massive multitask language understanding in Chinese☆696Updated this week
- 从零实现一个 llama3 中文版☆529Updated 4 months ago
- 《大模型白盒子构建指南》:一个全手搓的Tiny-Universe☆1,325Updated last week
- Llama3-Chinese是以Meta-Llama-3-8B为底座,使用 DORA + LORA+ 的训练方法,在50w高质量中文多轮SFT数据 + 10w英文多轮SFT数据 + 2000单轮自我认知数据训练而来的大模型。☆289Updated 6 months ago
- Phi2-Chinese-0.2B 从0开始训练自己的Phi2中文小模型,支持接入langchain加载本地知识库做检索增强生成RAG。Training your own Phi2 small chat model from scratch.☆482Updated 3 months ago
- 大语言模型微调,Qwen2、GLM4指令微调☆202Updated 3 months ago
- 使用peft库,对chatGLM-6B/chatGLM2-6B实现4bit的QLoRA高效微调,并做lora model和base model的merge及4bit的量化(quantize)。☆354Updated last year
- unified embedding model☆828Updated last year
- Tuning LLMs with no tears💦; Sample Design Engineering (SDE) for more efficient downstream-tuning.☆967Updated 6 months ago
- This is a repository used by individuals to experiment and reproduce the pre-training process of LLM.☆353Updated 6 months ago
- Practice to LLM.☆448Updated last week
- AGI资料汇总学习(主要包括LLM和AIGC),持续更新......☆297Updated last week
- 【LLMs九层妖塔】分享 LLMs在自然语言处理(ChatGLM、Chinese-LLaMA-Alpaca、小羊驼 Vicuna、LLaMA、GPT4ALL等)、信息检索(langchain)、语言合成、语言识别、多模态等领域(Stable Diffusion、MiniGP…☆1,785Updated 7 months ago
- 多模态中文LLaMA&Alpaca大语言模型(VisualCLA)☆423Updated last year
- 为ChatGLM设计的微调数据集生成工具,速来制作自己的猫娘。☆594Updated 8 months ago
- 李白 作为唐代杰出诗人,其诗歌作品在中国文学史上具有重要地位。近年来,随着数字技术和人工智能的快速发展,传统文化普及推广的形式也面临着创新与变革。国内外对于李白诗歌的研究虽已相当深入,但在数字化、智能化普及方面仍存在不足。因此,本项目旨在通过构建李白知识图谱,结合大模…☆1,242Updated 2 months ago