xinzhanguo / hellollm
pre train a new llm
☆65Updated last year
Alternatives and similar repositories for hellollm:
Users that are interested in hellollm are comparing it to the libraries listed below
- 针对qwen微调模型进行数据预处理☆14Updated last year
- 流水线系统(pipeline)构建基于本地知识库的ChatGLM问答☆87Updated last year
- 从langchain-ChatGLM基础上修改的一个可以加载TigerBot模型的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。☆106Updated last year
- self-host ChatGLM-6B API made with fastapi☆78Updated 2 years ago
- 大模型LLM,RAG实战☆115Updated 4 months ago
- 定制化chatgpt:多种超低成本定制化的chatgpt平替方案,带模型和数据且完整训练预测流程,可在线使用(仅限用于学术测试)[已有ChatGLM的LoRA与pt2方案]☆35Updated last year
- kbqa,langchain,large langauge model, chatgpt☆79Updated 5 months ago
- TechGPT: Technology-Oriented Generative Pretrained Transformer☆222Updated last year
- 学习ChatGLM3模型和LangChain框架的架构与核心功能,并基于LangChain+ChatGLM3实现本地知识库问答。☆40Updated last year
- Firefly中文LLaMA-2大模型,支持增量预训练Baichuan2、Llama2、Llama、Falcon、Qwen、Baichuan、InternLM、Bloom等大模型☆408Updated last year
- 本地知识库 + chatGLM6B + CustomAgent☆267Updated last year
- BERT-based intent and slots detector for chatbots.☆172Updated last month
- chatglm-6b微调/LORA/PPO/推理, 样本为自动生成的整数/小数加减乘除运算, 可gpu/cpu☆164Updated last year
- Q&A based on elasticsearch+langchain+chatglm2 | 基于elasticsearch,langchain,chatglm2的自有知识库问答☆238Updated last year
- ChatGLM2-6B微调, SFT/LoRA, instruction finetune☆106Updated last year
- langchain学习笔记,包含langchain源码解读、langchain中使用中文模型、langchain实例等。☆202Updated last year
- 供AI训练的中文数据集(持续更新。。。)与AI公司图谱,目前的数据集餐饮行业8000问,百度知道,Alpaca中文数据集,计算机领域数据集,Vicuna数据集,RedPajama数据集,Wikipedia中文词条数据集,网站论坛问答数据集☆56Updated last year
- 基于ChatGLM3基座模型和LLAMA-Factory框架进行微调的一个中医问答机器人☆82Updated last year
- 基于lora微调Qwen1.8chat的实战教程☆27Updated 5 months ago
- 基于pytorch的中文意图识别和槽位填充☆168Updated 8 months ago
- 中文聊天小模型,用t5 base在大量数据上有监督。☆99Updated last year
- 属于每个人的公众号”查特查特“上线啦!新问题、新方法、新发现,欢迎提PR!☆44Updated last year
- ☆74Updated last year
- ☆59Updated 5 months ago
- chatglm-6B for tools application using langchain☆75Updated last year
- ChatGLM 6B 的模型与UI,通过 LangChain 与向量匹配实现本地知识库问答,支持流式输出☆112Updated last year
- 微调ChatGLM☆125Updated last year
- 中文大模型微调(LLM-SFT), 数学指令数据集MWP-Instruct, 支持模型(ChatGLM-6B, LLaMA, Bloom-7B, baichuan-7B), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微…☆189Updated 10 months ago
- 基于sentence transformers和chatglm实现的文档搜索工具☆154Updated last year
- Ziya-LLaMA-13B是IDEA基于LLaMa的130 亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。本文主要用于Ziya-…☆45Updated last year