KashiwaByte / Qwen-1.5-FinetuneLinks
ModelScope+Transformers+SwanLab实现Qwen-1.5-7b的指令微调任务
☆23Updated last year
Alternatives and similar repositories for Qwen-1.5-Finetune
Users that are interested in Qwen-1.5-Finetune are comparing it to the libraries listed below
Sorting:
- Qwen1.5-SFT(阿里, Ali), Qwen_Qwen1.5-2B-Chat/Qwen_Qwen1.5-7B-Chat微调(transformers)/LORA(peft)/推理☆69Updated last year
- baichuan-7B 微调 C++ 面试大模型☆14Updated 2 years ago
- 通义千问的DPO训练☆61Updated last year
- qwen models finetuning☆105Updated 9 months ago
- ☆170Updated last year
- 通用简单工具项目☆22Updated last year
- Pytorch implementation of JointBERT: "BERT for Joint Intent Classification and Slot Filling"☆46Updated 2 years ago
- (撰写ing..)本仓库偏教程性质,以「模型中文化」为一个典型的模型训练问题切入场景,指导读者上手学习LLM 二次微调训练。☆36Updated last year
- 集成Qwen与DeepSeek等先进大语言模型,支持纯LLM+分类层模式及LLM+LoRA+分类层模式,使用transformers模块化设计和训练便于根据需要调整或替换组件。☆17Updated 4 months ago
- TechGPT: Technology-Oriented Generative Pretrained Transformer☆228Updated 2 years ago
- 阿里通义千问(Qwen-7B-Chat/Qwen-7B), 微调/LORA/推理☆132Updated last year
- 大模型文本分类☆92Updated last year
- 天池算法比赛《BetterMixture - 大模型数据混合挑战赛》的第一名top1解决方案☆33Updated last year
- Legal-Eagle-InternLM 是一个基于商汤科技和上海人工智能实验室推出的书生浦语大模型InternLM的法律问答机器人。旨在为用户提供符合3H(即Helpful、Honest、Harmless)原则的专业、智能、全面的法律服务的法律领域大模型。☆64Updated last year
- 基于大语言模型的检索增强生成RAG示例☆167Updated 7 months ago
- 大模型微调工具集合☆26Updated last year
- 雅意信息抽取大模型:在百万级人工构造的高质量信息抽取数据上进行指令微调,由中科闻歌算法团队研发。 (Repo for YAYI Unified Information Extraction Model)☆314Updated last year
- 大语言模型应用:RAG、NL2SQL、聊天机器人、预训练、MOE混合专家模型、微调训练、强化学习、天池数据竞赛☆74Updated 10 months ago
- qwen ai agent☆144Updated last year
- 大模型预训练中文语料清洗及质量评估 Large model pre-training corpus cleaning☆73Updated last year
- Alpaca Chinese Dataset -- 中文指令微调数据集☆217Updated last year
- 基于Qwen2模型进行通用信息抽取【实体/关系/事件抽取】☆40Updated last year
- ☆119Updated last year
- 此项目完成了关于 NLP-Beginner:自然语言处理入门练习 的所有任务(文本分类、信息抽取、知识图谱、机器翻译、问答系统、文本生成、Text-to-SQL、文本纠错、文本挖掘、知识蒸馏、模型加速、OCR、TTS、Prompt、embedding等),所有代码都经过测试…☆215Updated 2 years ago
- 本项目用于Embedding模型的相关实验,包括Embedding模型评估、Embedding模型微调、Embedding模型量化等。☆69Updated last year
- 由中国政法大学和北京航空航天大学共同设计,基于GLM-9B的法律文书处理和判决预测模型☆28Updated last year
- Deepspeed、LLM、Medical_Dialogue、医疗大模型、预训练、微调☆288Updated last year
- 中文大模型微调(LLM-SFT), 数学指令数据集MWP-Instruct, 支持模型(ChatGLM-6B, LLaMA, Bloom-7B, baichuan-7B), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微…☆214Updated last year
- ☆15Updated last year
- 大模型检索增强生成技术最佳实践。☆88Updated last year