HeGanjie / ai-npc-worldLinks
Let AI live in small world by using LangChain
☆18Updated 2 years ago
Alternatives and similar repositories for ai-npc-world
Users that are interested in ai-npc-world are comparing it to the libraries listed below
Sorting:
- ☆41Updated last year
- 该项目主要是抽取病历文件中的一些关键信息。并将抽取的内容进行streamlit前端的展示。目前支持的文件类型:图片,pdf文件,word文件☆23Updated 2 years ago
- Real-time video understanding and interaction through text,audio,image and video with large multi-modal model. 利用多模态大模型的实时视频理解和交互框架,通过文本…☆23Updated last year
- AGM阿格姆:AI基因图谱模型,从token-weight权重微粒角度,探索AI模型,GPT\LLM大模型的内在运作机制。☆28Updated last year
- 使用langchain进行简单的chatpdf☆43Updated 2 years ago
- GOAT(山羊)是中英文大语言模型,基于LlaMa进行SFT。☆12Updated 2 years ago
- 基于 LoRA 和 P-Tuning v2 的 ChatGLM-6B 高效参数微调☆55Updated 2 years ago
- 大语言模型训练和服务调研☆37Updated last year
- GPT+神器,简单实用的一站式AGI架构,内置本地化,LLM模型,agent,矢量数据库,智能链chain☆48Updated last year
- share data, prompt data , pretraining data☆36Updated last year
- Tracking the hot Github repos and update daily 每天自动追踪Github热门项目☆49Updated this week
- 大语言模型ChatGLM-6B为基座,接入文档阅读功能进行实时问答,可上传txt/docx/pdf多种文件类型。☆41Updated last year
- 一套代码指令微调大模型☆39Updated last year
- AGI模块库架构图☆75Updated last year
- 想要从零开始训练一个中文的mini大语言模型,可以进行基本的对话,模型大小根据手头的机器决定☆59Updated 9 months ago
- 实现一种多Lora权值集成切换+Zero-Finetune零微调增强的跨模型技术方案,LLM-Base+LLM-X+Alpaca,初期,LLM-Base为Chatglm6B底座模型,LLM-X是LLAMA增强模型。该方案简易高效,目标是使此类语言模型能够低能耗广泛部署,并最…☆115Updated last year
- ☆21Updated last year
- 【技术篇】个人微信公众号对接chatGLM-6B☆15Updated 2 years ago
- Gemma-SFT, gemma-2b/gemma-7b微调(finetune,transformers)/LORA(peft)/推理(inference)☆30Updated last year
- 打造人人都 会的NLP,开源不易,记得star哦☆101Updated 2 years ago
- LinChance Fine-tuning System 采用 Streamlit 结合 LLaMA-Factory 打造的模型微调 Web UI☆14Updated last year
- Open ChatGLM Eyes to See the World☆13Updated 2 years ago
- ☆16Updated last year
- ChatGLM2-6B-Explained☆35Updated last year
- 全球首个StableVicuna中文优化版 。☆64Updated last year
- 千问14B和7B的逐行解释☆60Updated last year
- 流水线系统(pipeline)构建基于本地知识库的ChatGLM问答☆87Updated last year
- ☆23Updated last year
- Ziya-LLaMA-13B是IDEA基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。本文主要用于Ziya-…☆45Updated last year
- ChatGLM2-6B微调, SFT/LoRA, instruction finetune☆108Updated last year