836304831 / langchain-analLinks
☆13Updated last year
Alternatives and similar repositories for langchain-anal
Users that are interested in langchain-anal are comparing it to the libraries listed below
Sorting:
- langchain学习笔记,包含langchain源码解读、langchain中使用中文模型、langchain实例等。☆210Updated last year
- ☆207Updated last year
- Q&A based on elasticsearch+langchain+chatglm2 | 基于elasticsearch,langchain,chatglm2的自有知识库问答☆241Updated last year
- SMP 2023 ChatGLM金融大模型挑战赛 60 分baseline思路介绍☆185Updated last year
- ☆41Updated last year
- Agentica: Effortlessly Build Intelligent, Reflective, and Collaborative Multimodal AI Agents! 构建智能的多模态AI Agent。☆175Updated this week
- ☆76Updated last year
- A collection of RAG systems powered by LLM.☆188Updated 3 months ago
- ☆83Updated 2 years ago
- 大模型应用技术开发入门系列☆38Updated 2 months ago
- 微调ChatGLM☆126Updated 2 years ago
- 一种利用Langchain框架和本地向量库实现的对话式BI,它的目标是帮助用户寻找、理解数据知识,并能够分析数据、洞察结果,通过自然语言对话,降低数据分析的门槛。☆133Updated last year
- 基于开源embedding模型的中文向量效果测试☆142Updated 2 years ago
- ☆57Updated 8 months ago
- 学习开源chatGPT类模型的指南,汇总各种训练数据获取、模型微调、模型服务的方法,以及记录自己操作总遇到的各种常见坑,欢迎收藏、转发,希望能帮你省一些时间☆75Updated last year
- 智谱AI 2024年金融行业大模型挑战赛仓库☆51Updated 4 months ago
- 中文大模型微调(LLM-SFT), 数学指令数据集MWP-Instruct, 支持模型(ChatGLM-6B, LLaMA, Bloom-7B, baichuan-7B), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微…☆203Updated last year
- chatglm3base模型的有监督微调SFT☆76Updated last year
- ☆70Updated last year
- 大型语言模型实战指南:应用实践与场景落地☆72Updated 9 months ago
- 中文原生检索增强生成测评基准☆118Updated last year
- chatglm-6B for tools application using langchain☆75Updated 2 years ago
- 本地知识库 + chatGLM6B + CustomAgent☆268Updated 2 years ago
- ChatGPT WebUI using gradio. 给 LLM 对话和检索知识问答RAG提供一个简单好用的Web UI界面☆130Updated 10 months ago
- 基于sentence transformers和chatglm实现的文档搜索工具☆155Updated 2 years ago
- 基于 Langchain,快速集成GLM-4 AllTools 功能的插件☆48Updated 11 months ago
- ☆114Updated last year
- basic framework for rag(retrieval augment generation)☆85Updated last year
- 基于大模型LLMs的智能文本SQL生成能力,结合数据可视化,实现下一代对话式系统自动生成图表展示和dashboard、数据分析的BI系统。☆145Updated last year
- Ziya-LLaMA-13B是IDEA基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜 子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。本文主要用于Ziya-…☆45Updated 2 years ago