FunnySaltyFish / Better-RuozhibaLinks
【逐条处理完成】人为审核+修改每一条的弱智吧精选问题QA数据集
☆216Updated 4 months ago
Alternatives and similar repositories for Better-Ruozhiba
Users that are interested in Better-Ruozhiba are comparing it to the libraries listed below
Sorting:
- Alpaca Chinese Dataset -- 中文指令微调数据集☆213Updated 10 months ago
- Phi2-Chinese-0.2B 从0开始训练自己的Phi2中文小模型,支持接入langchain加载本地知识库做检索增强生成RAG。Training your own Phi2 small chat model from scratch.☆563Updated last year
- 从小说中提取对话数据集☆230Updated last year
- 中文Mixtral混合专家大模型(Chinese Mixtral MoE LLMs)☆607Updated last year
- A lightweight multilingual LLM☆975Updated 5 months ago
- ☆718Updated 2 years ago
- [EMNLP'24] CharacterGLM: Customizing Chinese Conversational AI Characters with Large Language Models☆469Updated 7 months ago
- 从0开始,将chatgpt的技术路线跑一遍。☆250Updated 11 months ago
- This is a repository used by individuals to experiment and reproduce the pre-training process of LLM.☆460Updated 3 months ago
- ☆151Updated last year
- 中文对话0.2B小模型(ChatLM-Chinese-0.2B),开源所有数据集来源、数据清洗、tokenizer训练、模型预训练、SFT指令微调、RLHF优化等流程的全部代码。支持下游任务sft微调,给出三元组信息抽取微调示例。☆1,573Updated last year
- ☆453Updated 2 years ago
- GAOKAO-Bench is an evaluation framework that utilizes GAOKAO questions as a dataset to evaluate large language models.☆675Updated 7 months ago
- 活字通用大模型☆393Updated 10 months ago
- A Multi-modal RAG Project with Dataset from Honor of Kings, one of the most popular smart phone games in China☆66Updated 11 months ago
- 用于汇总目前的开源中文对话数据集☆169Updated 2 years ago
- 欢迎来到 "LLM-travel" 仓库!探索大语言模型(LLM)的奥秘 🚀。致力于深入理解、探讨以及实现与大模型相关的各种技术、原理和应用。☆331Updated last year
- 中文大模型微调(LLM-SFT), 数学指令数据集MWP-Instruct, 支持模型(ChatGLM-6B, LLaMA, Bloom-7B, baichuan-7B), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微…☆207Updated last year
- Chat-甄嬛是利用《甄嬛传》剧本中所有关于甄嬛的台词和语句,基于ChatGLM2进行LoRA微调得到的模仿甄嬛语气的聊天语言模型。☆711Updated 2 months ago
- gpt_server是一个用于生产级部署LLMs、Embedding、Reranker、ASR和TTS的开源框架。☆204Updated 2 weeks ago
- 从0到1构建一个MiniLLM (pretrain+sft+dpo实践中)☆462Updated 4 months ago
- Llama3-Chinese是以Meta-Llama-3-8B为底座,使用 DORA + LORA+ 的训练方法,在50w高质量中文多轮SFT数据 + 10w英文多轮SFT数据 + 2000单轮自我认知数据训练而来的大模型。☆295Updated last year
- Train a 1B LLM with 1T tokens from scratch by personal☆707Updated 3 months ago
- ☆84Updated last year
- ☆231Updated last year
- 通义千问VLLM推理部署DEMO☆595Updated last year
- ☆65Updated last year
- Retriever-0.1B☆93Updated last year
- 基于《西游记》原文、白话文、ChatGPT生成数据制作的,以InternLM2微调的角色扮演多LLM聊天室。 本项目将介绍关于角色扮演类 LLM 的一切,从数据获取、数据处理,到使用 XTuner 微调并部署至 OpenXLab,再到使用 LMDeploy 部署,以 op…☆103Updated last year
- 阿里通义千问(Qwen-7B-Chat/Qwen-7B), 微调/LORA/推理☆113Updated last year