wordweb / Tiger-qq-bot
基于langchain-chatglm-and-tigerbot+mirai 实现的一个qq群本地知识库问答机器人,可以通过直接将知识库文件提交到qq群的方式来上传知识库,也可以通过指令来开关(删除)知识库。从而得到一个基于qq的便携式本地知识库问答机器人。
☆25Updated last year
Alternatives and similar repositories for Tiger-qq-bot:
Users that are interested in Tiger-qq-bot are comparing it to the libraries listed below
- 从langchain-ChatGLM基础上修改的一个可以加载TigerBot模型的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。☆106Updated last year
- ChatGLM 6B 的模型与UI,通过 LangChain 与向量匹配实现本地知识库问答,支持流式输出☆112Updated last year
- 基于sentence transformers和chatglm实现的文档搜索工具☆154Updated last year
- 使用qlora对中文大语言模型进行微调,包含ChatGLM、Chinese-LLaMA-Alpaca、BELLE☆85Updated last year
- 基于ChatGLM-6b+langchain实现本地化知识库检索与智能答案生成☆24Updated last year
- 实现一种多Lora权值集成切换+Zero-Finetune零微调增强的跨模型技术方案,LLM-Base+LLM-X+Alpaca,初期,LLM-Base为Chatglm6B底座模型,LLM-X是LLAMA增强模型。该方案简易高效,目标是使此类语言模型能够低能耗广泛部署,并最…☆116Updated last year
- 打造人人都会的NLP,开源不易,记得star哦☆101Updated last year
- ChatGLM2-6B微调, SFT/LoRA, instruction finetune☆107Updated last year
- ✏️0成本LLM微调上手项目,⚡️一步一步使用colab训练法律LLM,基于microsoft/phi-1_5、chatglm3,包含lora微调,全参微调☆69Updated last year
- ☆74Updated last year
- 基于ChatGPT构建的中文self-instruct数据集☆116Updated last year
- chatglm-6B for tools application using langchain☆75Updated last year
- A full pipeline to finetune ChatGLM LLM with LoRA and RLHF on consumer hardware. Implementation of RLHF (Reinforcement Learning with Huma…☆134Updated last year
- 李鲁鲁老师对 吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版的实践☆134Updated last year
- 大语言模型ChatGLM-6B为基座,接入文档阅读功能进行实时问答,可上传txt/docx/pdf多种文件类型。☆38Updated last year
- ☆51Updated 7 months ago
- 学习开源chatGPT类模型的指南,汇总各种训练数据获取、模型微调、模型服务的方法,以及记录自己操作总遇到的各种常见坑,欢迎收藏、转发,希望能帮你省一些时间☆74Updated last year
- 基于chatglm快速搭建文档问答机器人☆88Updated last year
- 微调ChatGLM☆125Updated last year
- Integrating ONgDB database into langchain ecosystem☆77Updated last year
- 本地知识库 + chatGLM6B + CustomAgent☆267Updated last year
- ChatGLM-6B添加了RLHF的实现,以及部分核心代码的逐行讲解 ,实例部分是做了个新闻短标题的生成,以及指定context推荐的RLHF的实现☆82Updated last year
- 基于 LoRA 和 P-Tuning v2 的 ChatGLM-6B 高效参数微调☆55Updated last year
- Deepspeed、LLM、Medical_Dialogue、医疗大模型、预训练、微调☆255Updated 9 months ago
- 🛰️ 基于真实医疗对话数据在ChatGLM上进行LoRA、P-Tuning V2、Freeze、RLHF等微调,我们的眼光不止于医疗问答☆320Updated last year
- "桃李“: 国际中文教育大模型☆177Updated last year
- chatglm-6b微调/LORA/PPO/推理, 样本为自动生成的整数/小数加减乘除运算, 可gpu/cpu☆164Updated last year
- 骆驼QA,中文大语言阅读理解模型。☆75Updated last year
- SMP 2023 ChatGLM金融大模型挑战赛 60 分baseline思路介绍☆184Updated last year
- Ziya-LLaMA-13B是IDEA基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。本文主要用于Ziya-…☆45Updated last year