mindspore-lab / mindnlpLinks
MindSpore + 🤗Huggingface: Run any Transformers/Diffusers model on MindSpore with seamless compatibility and acceleration.
☆907Updated this week
Alternatives and similar repositories for mindnlp
Users that are interested in mindnlp are comparing it to the libraries listed below
Sorting:
- MindSpore online courses: Step into LLM☆483Updated last month
- Huggingface transformers的中文文档☆292Updated 2 years ago
- TinyRAG☆410Updated 7 months ago
- ☆182Updated this week
- 从0开始,将chatgpt的技术路线跑一遍。☆272Updated last year
- Train a 1B LLM with 1T tokens from scratch by personal☆786Updated 9 months ago
- personal chatgpt☆405Updated 3 weeks ago
- 尝试自己从头写一个LLM,参考llama和nanogpt☆68Updated last year
- 从零实现一个小参数量中文大语言模型。☆928Updated last year
- ☆412Updated 11 months ago
- 通义千问VLLM推理部署DEMO☆637Updated last year
- This is a repository used by individuals to experiment and reproduce the pre-training process of LLM.☆490Updated 9 months ago
- pytorch distribute tutorials☆169Updated 7 months ago
- LLMs interview notes and answers:该仓库主要记录大模型(LLMs)算法工程师相关的面试题和参考答案☆615Updated 2 years ago
- 大语言模型微调,Qwen2VL、Qwen2、GLM4指令微调☆595Updated 8 months ago
- 大模型/LLM推理和部署理论与实践☆372Updated 6 months ago
- Chat-甄嬛是利用《甄嬛传》剧本中所有关于甄嬛的台词和语句,基于ChatGLM2进行LoRA微调得到的模仿甄嬛语气的聊天语言模型。☆782Updated 8 months ago
- 这是一个从头训练大语言模型的项目,包括预训练、微调和直接偏好优化,模型拥有1B参数,支持中英文。☆729Updated 11 months ago
- 对llama3进行全参微调、lora微调以及qlora微调。☆214Updated last year
- ☆81Updated 2 months ago
- 该仓库主要记录 LLMs 算法工程师相关的顶会论文研读笔记(多模态、PEFT、小样本QA问答、RAG、LMMs可解释性、Agents、CoT)☆373Updated last year
- 欢迎来到 LLM-Dojo,这里是一个开源大模型学习场所,使用简洁且易阅读的代码构建模型训练框架(支持各种主流模型如Qwen、Llama、GLM等等)、RLHF框架(DPO/CPO/KTO/PPO)等各种功能。👩🎓👨🎓☆925Updated 2 months ago
- 欢迎来到 "LLM-travel" 仓库!探索大语言模型(LLM)的奥秘 🚀。致力于深入理解、探讨以及实现与大模型相关的各种技术、原理和 应用。☆368Updated last year
- 《动手学深度学习》的MindSpore实现。供MindSpore学习者配合李沐老师课程使用。☆125Updated 2 years ago
- LLM大模型(重点)以及搜广推等 AI 算法中手写的面试题,(非 LeetCode),比如 Self-Attention, AUC等,一般比 LeetCode 更考察一个人的综合能力,又更贴近业务和基础知识一点☆476Updated last year
- 解锁HuggingFace生态的百般用法☆98Updated last year
- 从零实现一个 llama3 中文版☆1,009Updated last year
- 用于从头预训练+SFT一个小参数量的中文LLaMa2的仓库;24G单卡即可运行得到一个具备简单中文问答能力的chat-llama2.☆17Updated last year
- 中文对话0.2B小模型(ChatLM-Chinese-0.2B),开源所有数据集来源、数据清洗、tokenizer训练、模型预训练、SFT指令微调、RLHF优化等流程的全部代码。支持下游任务sft微调,给出三元组信息抽取微调示例。☆1,667Updated last year
- Phi2-Chinese-0.2B 从0开始训练自己的Phi2中文小模型,支持接入langchain加载本地知识库做检索增强生成RAG。Training your own Phi2 small chat model from scratch.☆585Updated last year