PristineStream / ChatGPT-Chinese-TutorialLinks
ChatGPT中文学习和实践资料汇总——LLaMA、ChatGLM等大模型的Finetune
☆14Updated 2 years ago
Alternatives and similar repositories for ChatGPT-Chinese-Tutorial
Users that are interested in ChatGPT-Chinese-Tutorial are comparing it to the libraries listed below
Sorting:
- 此项目完成了 关于 NLP-Beginner:自然语言处理入门练习 的所有任务(文本分类、信息抽取、知识图谱、机器翻译、问答系统、文本生成、Text-to-SQL、文本纠错、文本挖掘、知识蒸馏、模型加速、OCR、TTS、Prompt、embedding等),所有代码都经过测试…☆217Updated 2 years ago
- FinQwen: 致力于构建一个开放、稳定、高质量的金融大模型项目,基于大模型搭建金融场景智能问答系统,利用开源开放来促进「AI+金融」。☆429Updated last year
- 本项目是针对RAG中的Retrieve阶段的召回技术及算法效果所做评估实验。使用主体框架为LlamaIndex.☆292Updated 6 months ago
- 本项目旨在收集开源的表格智能任务数据集(比如表格问答、表格-文本生成等),将原始数据整理为指令微调格式的数据并微调LLM,进而增强LLM对于表格数据的理解,最终构建出专门面向表格智能任务的大型语言模型。☆637Updated last year
- Deepspeed、LLM、Medical_Dialogue、医疗大模型、预训练、微调☆290Updated last year
- 中文大模型微调(LLM-SFT), 数学指令数据集MWP-Instruct, 支持模型(ChatGLM-6B, LLaMA, Bloom-7B, baichuan-7B), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微…☆216Updated last year
- RAG 论 文学习☆195Updated last month
- 《ChatGPT原理与实战:大型语言模型的算法、技术和私有化》☆370Updated 2 years ago
- 快速入门RAG与私有化部署☆211Updated last year
- chatglm多gpu用deepspeed和☆409Updated last year
- 阿里通义千问(Qwen-7B-Chat/Qwen-7B), 微调/LORA/推理☆136Updated last year
- 基于大语言模型的检索增强生成RAG示例☆168Updated 9 months ago
- 开源SFT数据集整理,随时补充☆570Updated 2 years ago
- basic framework for rag(retrieval augment generation)☆86Updated 2 years ago
- Firefly中文LLaMA-2大模型,支持增量预训练Baichuan2、Llama2、Llama、Falcon、Qwen、Baichuan、InternLM、Bloom等大模型☆416Updated 2 years ago
- 使用peft库,对chatGLM-6B/chatGLM2-6B实现4bit的QLoRA高效微调,并做lora model和base model的merge及4bit的量化(quantize)。☆358Updated 2 years ago
- Q&A based on elasticsearch+langchain+chatglm2 | 基于elasticsearch,langchain,chatglm2的自有知识库问答☆243Updated 2 years ago
- Baichuan2代码的逐行解析版本,适合小白☆213Updated 2 years ago
- kbqa,langchain,large langauge model, chatgpt☆81Updated last year
- 一个基于HuggingFace开发的大语言模型训练、测试工具。支持各模型的webui、终端预测,低参数量及全参数模型训练(预训练、SFT、RM、PPO、DPO)和融合、量化。☆223Updated 2 years ago
- 数据科学教程、大模型实践案例☆147Updated 7 months ago
- A Chinese medical ChatGPT based on LLaMa, training from large-scale pretrain corpus and multi-turn dialogue dataset.☆384Updated 2 years ago
- 雅意信息抽取大模型:在百万级人工构造的高质量信息抽取数据上进行指令微调,由中科闻歌算法团队研发。 (Repo for YAYI Unified Information Extraction Model)☆314Updated last year
- This is a repository used by individuals to experiment and reproduce the pre-training process of LLM.☆495Updated 9 months ago
- ChatGLM2-6B 全参数微调,支持多轮对话的高效微调。☆402Updated 2 years ago
- 阿里天池: 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答 baseline 80+☆120Updated 2 years ago
- chatglm3base模型的有监督微调SFT☆79Updated 2 years ago
- langchain学习笔记,包含langchain源码解读、langchain中使用中文模型、langchain实例等。☆230Updated 2 years ago
- Baichuan-13B 指令微调☆90Updated 2 years ago
- 受到self-instruct启发,除了通用LLM还能做垂直领域的小LLM实现定制效果,通过GPT获得question和answer来作为训练数据☆18Updated 2 years ago