lyhue1991 / eat_chatgptLinks
☆40Updated last year
Alternatives and similar repositories for eat_chatgpt
Users that are interested in eat_chatgpt are comparing it to the libraries listed below
Sorting:
- 学习开源chatGPT类模型的指南,汇总各种训练数据获取、模型微调、模型服务的方法,以及记录自己操作总遇到的各种常见坑,欢迎收藏、转发,希望能帮你省一些时间☆76Updated last year
- prompt engineering ,llm,text2sql☆38Updated last year
- 大型语言模型实战指南:应用实践与场景落地☆79Updated last year
- SMP 2023 ChatGLM金融大模型挑战赛 60 分baseline思路介绍☆186Updated 2 years ago
- 阿里天池: 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答 baseline 80+☆111Updated last year
- langchain学习笔记,包含langchain源码解读、langchain中使用中文模型、langchain实例等。☆225Updated 2 years ago
- 数据科学教程、大模型实践案例☆145Updated 2 months ago
- 中文世界的NLP自动标注开源工具,简单样本,交给LabelFast。☆76Updated 8 months ago
- AFAC2024金融智能创新大赛☆55Updated 9 months ago
- 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答, 75+ baseline☆60Updated last year
- easy-bert是一个中文NLP工具,提供诸多bert变体调用和调参方法,极速上手;清晰的设计和代码注释,也很适合学习☆82Updated 2 years ago
- 基于开源embedding模型的中文向量效果测试☆144Updated 2 years ago
- ChatGLM2-6B-Explained☆36Updated 2 years ago
- 基于chatglm快速搭建文档问答机器人☆89Updated 2 years ago
- 千问14B和7B的逐行解释☆61Updated last year
- 基于大语言模型的检索增强生成RAG示例☆158Updated 4 months ago
- Q&A based on elasticsearch+langchain+chatglm2 | 基于elasticsearch,langchain,chatglm2的自有知识库问答☆242Updated last year
- basic framework for rag(retrieval augment generation)☆85Updated last year
- ChatGLM2-6B微调, SFT/LoRA, instruction finetune☆110Updated 2 years ago
- ☆42Updated last month
- 中文大模型微调(LLM-SFT), 数学指令数据集MWP-Instruct, 支持模型(ChatGLM-6B, LLaMA, Bloom-7B, baichuan-7B), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微…☆211Updated last year
- Datawhale自研数据标注工具☆70Updated last year
- 快速入门RAG与私有化部署☆206Updated last year
- Generate dialog data from documents using LLM like ChatGLM2 or ChatGPT;利用ChatGLM2,ChatGPT等大模型根据文档生成对话数据集☆159Updated last year
- ☆194Updated 2 years ago
- ✏️0成本LLM微调上手项目,⚡️一步一步使用colab训练法律LLM,基于microsoft/phi-1_5、chatglm3,包含lora微调,全参微调☆77Updated last year
- 李鲁鲁老师对 吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版的实践☆134Updated last year
- Ziya-LLaMA-13B是IDEA基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。本文主要用于Ziya-…☆45Updated 2 years ago
- 用于AIOPS24挑战赛的Demo☆64Updated last year
- 本地知识库 + chatGLM6B + CustomAgent☆270Updated 2 years ago