Rookie1019 / Llama-3-8B-Instruct-ChineseLinks
LLama3中文个人版本
☆40Updated last year
Alternatives and similar repositories for Llama-3-8B-Instruct-Chinese
Users that are interested in Llama-3-8B-Instruct-Chinese are comparing it to the libraries listed below
Sorting:
- 利用LLM+敏感词库,来自动判别是否涉及敏感词。☆136Updated 2 years ago
- A Python Package to Access World-Class Generative Models☆131Updated last year
- ☆195Updated 10 months ago
- 大语言模型训练和服务调研☆36Updated 2 years ago
- Alpaca Chinese Dataset -- 中文指令微调数据集☆217Updated last year
- "桃李“: 国际中文教育大模型☆189Updated 2 years ago
- ChatPilot: Chat Agent Web UI,实现Chat对话前端,支持Google搜索、文件网址对话(RAG)、代码解释器功能,复现了Kimi Chat(文件,拖进来;网址,发出来)。☆586Updated 6 months ago
- 中文世界的NLP自动标注开源工具,简单样本,交给LabelFast。☆84Updated 3 weeks ago
- 大语言模型ChatGLM-6B为基座,接入文档阅读功能进行实时问答,可上传txt/docx/pdf多种文件类型。☆43Updated 2 years ago
- 首个llama2 13b 中文版模型 (Base + 中文对话SFT,实现流畅多轮人机自然语言交互)☆91Updated 2 years ago
- Agentica: Effortlessly Build Intelligent, Reflective, and Collaborative Multimodal AI Agents! 构建智能的多模态AI Agent。☆228Updated this week
- share data, prompt data , pretraining data☆36Updated 2 years ago
- ✏️0成本LLM微调上手项目,⚡️一步一步使用colab训练法律LLM,基于microsoft/phi-1_5、chatglm3,包含lora微调,全参微调☆83Updated 2 years ago
- 部署你自己的OpenAI api🤩, 基于flask, transformers (使用 Baichuan2-13B-Chat-4bits 模型, 可以运行在单张Tesla T4显卡) ,实现了OpenAI中Chat, Models和Completions接口,包含流式响…☆96Updated 2 years ago
- SMP 2023 ChatGLM金融大模型挑战赛 60 分baseline思路介绍☆186Updated 2 years ago
- 打造人人都会的NLP,开源不易,记得star哦☆102Updated 2 years ago
- 本项目致力于为大模型领域的初学者提供全面的知识体系,包括基础和高阶内容,以便开发者能迅速掌握大模型技术栈并全面了解相关知识。☆62Updated 11 months ago
- 基于chatglm快速搭建文档问答机器人☆89Updated 2 years ago
- Qwen 提示词工程 & 最佳实践☆39Updated last year
- The complete training code of the open-source high-performance Llama model, including the full process from pre-training to RLHF.☆68Updated 2 years ago
- 使用qlora对中文大语言模型进行微调,包含ChatGLM、Chinese-LLaMA-Alpaca、BELLE☆89Updated 2 years ago
- 中文原生检索增强生成测评基准☆123Updated last year
- Llama2开源模型中文版-全方位测评,基于SuperCLUE的OPEN基准 | Llama2 Chinese evaluation with SuperCLUE☆127Updated 2 years ago
- PDF解析(文字,章节,表格,图片,参考),基于大模型(ChatGLM2-6B, RWKV)+langchain+streamlit的PDF问答,摘要,信息抽取☆216Updated 2 years ago
- 想要从零开始训练一个中文的mini大语言模型,可以进行基本的对话,模型大小根据手头的机器决定☆65Updated last year
- 千问14B和7B的逐行解释☆63Updated 2 years ago
- Llama3-Chinese是以Meta-Llama-3-8B为底座,使用 DORA + LORA+ 的训练方法,在50w高 质量中文多轮SFT数据 + 10w英文多轮SFT数据 + 2000单轮自我认知数据训练而来的大模型。☆295Updated last year
- Ziya-LLaMA-13B是IDEA基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。本文主要用于Ziya-…☆45Updated 2 years ago
- ☆62Updated 10 months ago
- 百度QA100万数据集☆47Updated 2 years ago