niuwz / Mini-Chinese-Phi3Links
基于Phi3模型结构,使用常见的中文预料从零训练的小参数量LLM。包括了tokenizer训练、模型预训练、指令微调和直接偏好优化等流程。
☆25Updated last year
Alternatives and similar repositories for Mini-Chinese-Phi3
Users that are interested in Mini-Chinese-Phi3 are comparing it to the libraries listed below
Sorting:
- 从0开始,将chatgpt的技术路线跑一遍。☆264Updated last year
- 一些大语言模型和多模态模型的生态,主要包括跨模态搜索、投机解码、QAT量化、多模态量化、ChatBot、OCR☆190Updated 2 months ago
- Phi2-Chinese-0.2B 从0开始训练自己的Phi2中文小模型,支持接入langchain加载本地知识库做检索增强生成RAG。Training your own Phi2 small chat model from scratch.☆572Updated last year
- 阿里通义千问(Qwen-7B-Chat/Qwen-7B), 微调/LORA/推理☆120Updated last year
- 通义千问VLLM推理部署DEMO☆611Updated last year
- This is a repository used by individuals to experiment and reproduce the pre-training process of LLM.☆474Updated 5 months ago
- 对llama3进行全参微调、lora微调以及qlora微调。☆210Updated last year
- 一个包含了多种主流大模型微调方案的实战代码库,基于Qwen3系列模型☆78Updated 2 months ago
- Train a 1B LLM with 1T tokens from scratch by personal☆740Updated 5 months ago
- 使用煤矿历史事故案例,事故处理报告、安全规程规章制度、技术文档、煤矿从业人员入职考试题库等数据,微调internlm2模型实现针对煤矿事故和煤矿安全知识的智能问答。☆53Updated 9 months ago
- vLLM Documentation in Chinese Simplified / vLLM 中文文档☆114Updated this week
- Qwen1.5-SFT(阿里, Ali), Qwen_Qwen1.5-2B-Chat/Qwen_Qwen1.5-7B-Chat微调(transformers)/LORA(peft)/推理☆68Updated last year
- TinyRAG☆350Updated 3 months ago
- 想要从零开始训练一个中文的mini大语言模型,可以进行基本的对话,模型大小根据手头的机器决定☆62Updated last year
- 快速入门RAG与私有化部署☆208Updated last year