huangjia2019 / DeepBlue-LLMLinks
深蓝学院课程 - 生成式预训练语言模型:理论与实战
☆45Updated 2 years ago
Alternatives and similar repositories for DeepBlue-LLM
Users that are interested in DeepBlue-LLM are comparing it to the libraries listed below
Sorting:
- 异步图书:《 GPT图解 大模型是怎样构建的》- 这套代码是AI Coder出现之前,自己用纯手工搭建的一套简单有效的NLP经典算法集合。在大语言模型推动的AI Coder兴起之后,很少有机会再创作这么有“手工风”的代码了,不知道这是值得开心还是值得遗憾的事情。☆188Updated last year
- unify-easy-llm(ULM)旨在打造一个简易的一键式大模型训练工具,支持Nvidia GPU、Ascend NPU等不同硬件以及常用的大模型。☆59Updated last year
- AGI资料汇总学习(主要包括LLM和AIGC),持续更新......☆465Updated last month
- Introductory examples for building LLM-based AI agents. 异步图书:《大模型应用开发 动手做AI Agent》 - 这是一些非常简单的入门示例,重在引导新手入门,目前LLM开发领域发展很快,本书只是一个提纲挈领。更多的示…☆453Updated 2 months ago
- 属于每个人的公众号”查特查特“上线啦!新问题、新方法、新发现,欢迎提PR!☆47Updated 2 years ago
- 中文大模型微调(LLM-SFT), 数学指令数据集MWP-Instruct, 支持模型(ChatGLM-6B, LLaMA, Bloom-7B, baichuan-7B), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微…☆215Updated last year
- Alpaca Chinese Dataset -- 中文指令微调数据集☆217Updated last year
- 从零到一实现一个 miniLLM~(动手学习LLM)☆77Updated last year
- ☆78Updated last year
- langchain学习笔记,包含langchain源码解读、langchain中使用中文模型、langchain实例等。☆231Updated 2 years ago
- 本项目致力于为大模型领域的初学者提供全面的知识体系,包括基础和高阶内容,以便开发者能迅速掌握大模型技术栈并全面了解相关知识。☆62Updated last year
- Baichuan2代码的逐行解析版本,适合小白☆213Updated 2 years ago
- ☆358Updated last year
- 李鲁鲁老师对 吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版的实践☆134Updated 2 years ago
- ☆259Updated 2 years ago
- Easy, fast, and cheap pretrain,finetune, serving for everyone☆315Updated 6 months ago
- ☆105Updated 2 years ago
- A2A Concept☆13Updated 9 months ago
- 本地知识库 + chatGLM6B + CustomAgent☆274Updated 2 years ago
- 大型语言模型实战指南:应用实践与场景落地☆85Updated last year
- 部署你自己的OpenAI api🤩, 基于flask, transformers (使用 Baichuan2-13B-Chat-4bits 模型, 可以运行在单张Tesla T4显卡) ,实现了OpenAI中Chat, Models和Completions接口,包含流式响…☆96Updated 2 years ago
- Llama3-Tutorial(XTuner、LMDeploy、OpenCompass)☆511Updated last year
- 基于 Langchain,快速集成GLM-4 AllTools 功能的插件☆49Updated last year
- DSPy中文文档☆47Updated last year
- pretrain a wiki llm using transformers☆60Updated last year
- Llama3-Chinese是以Meta-Llama-3-8B为底座,使用 DORA + LORA+ 的训练方法,在50w高质量中文多轮SFT数据 + 10w英文多轮SFT数据 + 2000单轮自我认知数据训练而来的大模型。☆295Updated last year
- 基于ReAct手搓一个Agent Demo☆163Updated 6 months ago
- 《ChatGPT原理与实战:大型语言模型的算法、技术和私有化》☆369Updated 2 years ago
- LangChain结合了大型语言模型、知识库和计算逻辑,可以用于快速开发强大的AI应用。这个仓库包含了我对LangChain的学习和实践经验,包括教程和代码案例。让我们一起探索LangChain的可能性,共同推动人工智能领域的进步!☆198Updated last year
- Qwen 提示词工程 & 最佳实践☆39Updated last year