supinyu / Goat-Math-Chinese
山羊中文算术大模型
☆10Updated last year
Alternatives and similar repositories for Goat-Math-Chinese:
Users that are interested in Goat-Math-Chinese are comparing it to the libraries listed below
- ChatGLM2-6B微调, SFT/LoRA, instruction finetune☆107Updated last year
- Integrating ONgDB database into langchain ecosystem☆77Updated last year
- 属于每个人的公众号”查特查特“上线啦!新问题、新方法、新发现,欢迎提PR!☆45Updated last year
- 千问14B和7B的逐行解释☆57Updated last year
- 使用qlora对中文大语言模型进行微调,包含ChatGLM、Chinese-LLaMA-Alpaca、BELLE☆86Updated last year
- 大语言模型训练和服务调研☆37Updated last year
- ChatGLM 6B 的模型与UI,通过 LangChain 与向量匹配实现本地知识库问答,支持流式输出☆112Updated 2 years ago
- chatglm-6b微调/LORA/PPO/推理, 样本为自动生成的整数/小数加减乘除运算, 可gpu/cpu☆164Updated last year
- 从langchain-ChatGLM基础上修改的一个可以加载TigerBot模型的基于本地知识库的问答应用,目标期望建立一套 对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。☆106Updated last year
- The LLM of NL2GQL with NebulaGraph or Neo4j☆91Updated last year
- ☆74Updated last year
- SMP 2023 ChatGLM金融大模型挑战赛 60 分baseline思路介绍☆184Updated last year
- 基于ChatGPT构建的中文self-instruct数据集☆116Updated last year
- 基于sentence transformers和chatglm实现的文档搜索工具☆154Updated 2 years ago
- 首个llama2 13b 中文版模型 (Base + 中文对话SFT,实现流畅多轮人机自然语言交互)☆90Updated last year
- 国内首个全参数训练的法律大模型 HanFei-1.0 (韩非)☆116Updated last year
- chatglm-6B for tools application using langchain☆75Updated last year
- 骆驼QA,中文大语言阅读理解模型。☆74Updated last year
- Retrieval Augmented Generation (RAG) implementation through libraries like Tavily, LangChain, ChatGLM3☆23Updated last year
- 流水线系统(pipeline)构建基于本地知识库的ChatGLM问答☆87Updated last year
- 基于LLM的多轮问答系统。结合了意图识别和词槽填充技术☆19Updated last year
- large language model training-3-stages+deployment☆47Updated last year
- use chatGLM to perform text embedding☆45Updated 2 years ago
- 基于chatglm快速搭建文档问答机器人☆88Updated last year
- 该项目主要是抽取病历文件中的一些关键信息。并将抽取的内容进行streamlit前端的展示。目前支持的文件类型:图片,pdf文件,word文件☆23Updated 2 years ago
- 一套代码指令微调大模型☆39Updated last year
- "桃李“: 国际中文教育大模型☆177Updated last year
- 基于qlora对baichuan-7B大模型进行指令微调。☆22Updated last year
- 利用LLM+敏感词库,来自动判别是否涉及敏感词。☆118Updated last year
- share data, prompt data , pretraining data☆36Updated last year