sophgo / ChatGLM3-TPULinks
run chatglm3-6b in BM1684X
☆39Updated last year
Alternatives and similar repositories for ChatGLM3-TPU
Users that are interested in ChatGLM3-TPU are comparing it to the libraries listed below
Sorting:
- run ChatGLM2-6B in BM1684X☆49Updated last year
- qwen2 and llama3 cpp implementation☆44Updated last year
- 基于MNN-llm的安卓手机部署大语言模型:Qwen1.5-0.5B-Chat☆79Updated last year
- XVERSE-7B: A multilingual large language model developed by XVERSE Technology Inc.☆53Updated last year
- 支持中文场景的的小语言模型 llama2.c-zh☆147Updated last year
- 适用于sophon bm1684x,基于 Langchain 与 ChatGLM 等语言模型的本地知识库问答☆12Updated last year
- GLM Series Edge Models☆142Updated last week
- 实现Blip2RWKV+QFormer的多模态图文对话大模型,使用Two-Step Cognitive Psychology Prompt方法,仅3B参数的模型便能够出现类人因果思维链。对标MiniGPT-4,ImageBind等图文对话大语言模型,力求以更小的算力和资源实…☆38Updated last year
- XVERSE-MoE-A4.2B: A multilingual large language model developed by XVERSE Technology Inc.☆39Updated last year
- Its an open source LLM based on MOE Structure.☆58Updated 11 months ago
- 首个llama2 13b 中文版模型 (Base + 中文对话SFT,实现流畅多轮人机自然语言交互)☆90Updated last year
- Run generative AI models in sophgo BM1684X/BM1688☆220Updated this week
- GPT+神器,简单实用的一站式AGI架构,内置本地化,LLM模型,agent,矢量数据库,智能链chain☆48Updated last year
- 纯c++的全平台llm加速库,支持python调用,支持baichuan, glm, llama, moss基座,手机端流畅运行chatglm-6B级模型单卡可达10000+token / s,☆45Updated last year
- An open-source chat text to control actions agentic workflow framework/showcase powered by Agently AI application development framework.☆28Updated 9 months ago
- Explore LLM model deployment based on AXera's AI chips☆107Updated this week
- vLLM Documentation in Chinese Simplified / vLLM 中文文档☆79Updated last month
- 研究GOT-OCR-项目落地加速,不限语言☆60Updated 8 months ago
- 从langchain-ChatGLM基础上修改的一个可以加载TigerBot模型的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。☆107Updated last year
- 全球首个StableVicuna中文优化版。☆64Updated last year
- A demo built on Megrez-3B-Instruct, integrating a web search tool to enhance the model's question-and-answer capabilities.☆38Updated 6 months ago
- ChatGLM 6B 的模型与UI,通过 LangChain 与向量匹配实现本地知识库问答,支持流式输出☆113Updated 2 years ago
- unify-easy-llm(ULM)旨在打造一个 简易的一键式大模型训练工具,支持Nvidia GPU、Ascend NPU等不同硬件以及常用的大模型。☆55Updated 10 months ago
- ☆109Updated last year
- 演示Gemma中文指令微调的教程☆46Updated last year
- 想要从零开始训练一个中文的mini大语言模型,可以进行基本的对话,模型大小根据手头的机器决定☆60Updated 10 months ago
- 部署你自己的OpenAI api🤩, 基于flask, transformers (使用 Baichuan2-13B-Chat-4bits 模型, 可以运行在单张Tesla T4显卡) ,实现了OpenAI中Chat, Models和Completions接口,包含流式响…☆93Updated last year
- TPO 是一个优化 LLM 输出文本的框架,通过迭代反馈和优化提示的方式来“微调模型”,而非直接调整模型的参数,使模型在推理过程中与人类偏好对齐以生成更好的结果。本项目提供了一个友好的 WebUI 来加载模型,实时优化基础模型并展示最佳结果。☆10Updated 4 months ago
- share data, prompt data , pretraining data☆36Updated last year
- Alpaca Chinese Dataset -- 中文指令微调数据集☆206Updated 8 months ago