chunhuizhang / bert_t5_gpt
☆52Updated this week
Related projects ⓘ
Alternatives and complementary repositories for bert_t5_gpt
- 使用单个24G显卡,从0开始训练LLM☆49Updated 3 weeks ago
- ☆88Updated 4 months ago
- Inference code for LLaMA models☆109Updated last year
- 快速入门RAG与私有化部署☆131Updated 7 months ago
- 阿里天池: 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答 baseline 80+☆76Updated 10 months ago
- 对llama3进行全参微调、lora微调以及qlora微调。☆152Updated last month
- 怎么训练一个LLM分词器☆129Updated last year
- 欢迎来到 "LLM-travel" 仓库!探索大语言模型(LLM)的奥秘 🚀。致力于深入理解、探讨以及实现与大模型相关的各种技术、原理和应用。☆267Updated 4 months ago
- an implementation of transformer, bert, gpt, and diffusion models for learning purposes☆147Updated last month
- pytorch分布式训练☆59Updated last year
- 中文大模型微调(LLM-SFT), 数学指令数据集MWP-Instruct, 支持模型(ChatGLM-6B, LLaMA, Bloom-7B, baichuan-7B), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微…☆168Updated 6 months ago
- deepspeed+trainer简单高效实现多卡微调大模型☆116Updated last year
- llama2 finetuning with deepspeed and lora☆167Updated last year
- 本项目是针对RAG中的Retrieve阶段的召回技术及算法效果所做评估实验。使用主体框架为LlamaIndex.☆177Updated 2 months ago
- 基于DPO算法微调语言大模型,简单好上手。☆28Updated 4 months ago
- Baichuan2代码的逐行解析版本,适合小白☆208Updated last year
- basic framework for rag(retrieval augment generation)☆75Updated 10 months ago
- 阿里通义千问(Qwen-7B-Chat/Qwen-7B), 微调/LORA/推理☆68Updated 6 months ago
- baichuan LLM surpervised finetune by lora☆60Updated last year
- ☆63Updated last year
- personal chatgpt☆320Updated last week
- Baichuan-13B 指令微调☆89Updated last year
- TinyRAG☆235Updated 3 weeks ago
- 该仓库主要记录 LLMs 算法工程师相关的顶会论文研读笔记(多模态、PEFT、小样本QA问答、RAG、LMMs可解释性、Agents、CoT)☆263Updated 7 months ago
- ChatGLM-6B添加了RLHF的实现,以及部分核心代码的逐行讲解 ,实例部分是做了个新闻短标题的生成,以及指定context推荐的RLHF的实现☆78Updated last year
- 用于AIOPS24挑战赛的Demo☆57Updated 5 months ago
- 一些 LLM 方面的从零复现笔记☆137Updated 2 months ago
- 大语言模型指令调优工具(支持 FlashAttention)☆166Updated 10 months ago
- 此项目完成了关于 NLP-Beginner:自然语言处理入门练习 的所有任务(文本分类、信息抽取、知识图谱、机器翻译、问答系统、文本生成、Text-to-SQL、文本纠错、文本挖掘、知识蒸馏、模型加速、OCR、TTS、Prompt、embedding等),所有代码都经过测试…☆176Updated last year
- llama,chatglm 等模型的微调☆82Updated 4 months ago