heyblackC / BetterMixture-Top1-SolutionLinks
天池算法比赛《BetterMixture - 大模型数据混合挑战赛》的第一名top1解决方案
☆32Updated last year
Alternatives and similar repositories for BetterMixture-Top1-Solution
Users that are interested in BetterMixture-Top1-Solution are comparing it to the libraries listed below
Sorting:
- 大语言模型应用:RAG、NL2SQL、聊天机器人、预训练、MOE混合专家模型、微调训 练、强化学习、天池数据竞赛☆69Updated 8 months ago
- 使用 Qwen2ForSequenceClassification 简单实现文本分类任务。☆82Updated last year
- 基于DPO算法微调语言大模型,简单好上手。☆45Updated last year
- Qwen1.5-SFT(阿里, Ali), Qwen_Qwen1.5-2B-Chat/Qwen_Qwen1.5-7B-Chat微调(transformers)/LORA(peft)/推理☆68Updated last year
- 通用简单工具项目☆20Updated last year
- 使用单个24G显卡,从0开始训练LLM☆55Updated 3 months ago
- 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答, 75+ baseline☆60Updated last year
- ☆118Updated last year
- 阿里天池: 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答 baseline 80+☆112Updated last year
- 怎么训练一个LLM分词器☆153Updated 2 years ago
- 本项目用于大模型数学解题能力方面的数据集合成,模型训练及评测,相关文章记录。☆95Updated last year
- ☆13Updated 6 months ago
- LLM+RAG for QA☆23Updated last year
- kaggle 2024 Eedi 第10名 金牌方案☆42Updated 9 months ago
- 1st Solution For Conversational Multi-Doc QA Workshop & International Challenge @ WSDM'24 - Xiaohongshu.Inc☆161Updated 2 months ago
- Code for a New Loss for Mitigating the Bias of Learning Difficulties in Generative Language Models☆65Updated 7 months ago
- AFAC2024金融智能创新大赛☆56Updated 10 months ago
- ☆115Updated 10 months ago
- 大语言模型指令调优工具(支持 FlashAttention)☆178Updated last year
- 对llama3进行全参微调、lora微调以及qlora微调。☆210Updated last year
- 专注于中文领域大语言模型,落地到某个行业某个领域,成为一个行业大模型、公司级别或行业级别领域大模型。☆123Updated 7 months ago
- ☆66Updated 2 months ago
- 通义千问的DPO训练☆55Updated last year
- 集成Qwen与DeepSeek等先进大语言模型,支持纯LLM+分类层模式及LLM+LoRA+分类层模式,使用transformers模块化设计和训练便于根据需要调整或替换组件。☆14Updated last month
- 用于AIOPS24挑战赛的Demo☆64Updated last year
- 欢迎来到 "LLM-travel" 仓库!探索大语言模型(LLM)的奥秘 🚀。致力于深入理解、探讨以及实现与大模型相关的各种技术、原理和应用。☆343Updated last year
- ChatGLM-6B添加了RLHF的实现,以及部分核心代码的逐行讲解 ,实例部分是做了个新闻短标题的生成,以及指定context推荐的RLHF的实现☆88Updated 2 years ago
- 一个基于HuggingFace开发的大语言模型训练、测试工具。支持各模型的webui、终端预测,低参数量及全参数模型训练(预训练、SFT、RM、PPO、DPO)和融合、量化。☆220Updated last year
- A repo for update and debug Mixtral-7x8B、MOE、ChatGLM3、LLaMa2、 BaChuan、Qwen an other LLM models include new models mixtral, mixtral 8x7b, …☆48Updated this week
- Official Repository for SIGIR2024 Demo Paper "An Integrated Data Processing Framework for Pretraining Foundation Models"☆82Updated last year