Rookie1019 / Llama-3-8B-Instruct-ChineseLinks
LLama3中文个人版本
☆39Updated last year
Alternatives and similar repositories for Llama-3-8B-Instruct-Chinese
Users that are interested in Llama-3-8B-Instruct-Chinese are comparing it to the libraries listed below
Sorting:
- ✏️0成本LLM微调上手项目,⚡️一步一步使用colab训练法律LLM,基于microsoft/phi-1_5、chatglm3,包含lora微调,全参微 调☆75Updated last year
- 利用LLM+敏感词库,来自动判别是否涉及敏感词。☆126Updated 2 years ago
- 流水线系统(pipeline)构建基于本地知识库的ChatGLM问答☆87Updated 2 years ago
- 首个llama2 13b 中文版模型 (Base + 中文对话SFT,实现流畅多轮人机自然语言交互)☆90Updated last year
- A Python Package to Access World-Class Generative Models☆127Updated last year
- 大语言模型训练和服务调研☆37Updated last year
- 属于每个人的公众号”查特查特“上线啦!新问题、新方法、新发现,欢迎提PR!☆45Updated last year
- Humanable Chat Generative-model Fine-tuning | LLM微调☆207Updated last year
- Agentica: Effortlessly Build Intelligent, Reflective, and Collaborative Multimodal AI Agents! 构建智能的多模态AI Agent。☆187Updated last week
- ☆57Updated 8 months ago
- 千问14B和7B的逐行解释☆60Updated last year
- 本项目致力于为大模型领域的初学者提供全面的知识体系,包括基础和高阶内容,以便开发者能迅速掌握大模型技术栈并全面了解相关知识。☆61Updated 6 months ago
- 从langchain-ChatGLM基础上修改的一个可以加载TigerBot模型的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。☆107Updated 2 years ago
- "桃李“: 国际中文教育大模型☆182Updated last year
- 大语言模型ChatGLM-6B为基座,接入文档阅读功能进行实时问答,可上传txt/docx/pdf多种文件类型。☆41Updated last year
- Based on RapidOCR, extract the PDF content☆174Updated 2 months ago
- share data, prompt data , pretraining data☆36Updated last year
- 基于chatglm快速搭建文档问答机器人☆88Updated 2 years ago
- Llama3-Chinese是以Meta-Llama-3-8B为底座,使用 DORA + LORA+ 的训练方法,在50w高质量中文多轮SFT数据 + 10w英文多轮SFT数据 + 2000单轮自我认知数据训练而来的大模型。☆295Updated last year
- 部署你自己的OpenAI api🤩, 基于flask, transformers (使用 Baichuan2-13B-Chat-4bits 模型, 可以运行在单张Tesla T4显卡) ,实现了OpenAI中Chat, Models和Completions接口,包含流式响…☆94Updated last year
- Alpaca Chinese Dataset -- 中文指令微调数据集☆209Updated 9 months ago
- 打造人人都会的NLP,开源不易,记得star哦☆101Updated 2 years ago
- A demo built on Megrez-3B-Instruct, integrating a web search tool to enhance the model's question-and-answer capabilities.☆38Updated 7 months ago
- SMP 2023 ChatGLM金融大模型挑战赛 60 分baseline思路介绍☆185Updated last year
- ☆192Updated 5 months ago
- Ziya-LLaMA-13B是IDEA基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。本文主要用于Ziya-…☆45Updated 2 years ago
- 通过paddle ocr实现pdf转markdown☆72Updated 9 months ago
- 360zhinao☆290Updated 2 months ago
- Qwen 提示词工程 & 最佳实践☆29Updated last year
- chatglm-6b微调/LORA/PPO/推理, 样本为自动生成的整数/小数加减乘除运算, 可gpu/cpu☆164Updated last year