hellotransformers / Natural_Language_Processing_with_Transformers
Natural Language Processing with Transformers 中译本,最权威Transformers教程
☆434Updated 8 months ago
Alternatives and similar repositories for Natural_Language_Processing_with_Transformers:
Users that are interested in Natural_Language_Processing_with_Transformers are comparing it to the libraries listed below
- 自然语言处理(NLP)教程,包括:词向量,词法分析,预训练语言模型,文本分类,文本语义匹配,信息抽取,翻译,对话。☆416Updated 2 years ago
- 此项目完成了关于 NLP-Beginner:自然语言处理入门练习 的所有任务(文本分类、信息抽取、知识图谱、机器翻译、问答系统、文本生成、Text-to-SQL、文本纠错、文本挖掘、知识蒸馏、模型加速、OCR、TTS、Prompt、embedding等),所有代码都经过测试…☆185Updated last year
- 《ChatGPT原理与实战:大型语言模型的算法、技术和私有化》☆344Updated last year
- LLMs interview notes and answers:该仓库主要记录大模型(LLMs)算法工程师相关的面试题和参考答案☆1,181Updated last year
- 自然语言处理学习笔记:机器学习及深度学习原理和示例,基于 Tensorflow 和 PyTorch 框架,Transformer、BERT、ALBERT等最新预训练模型及源代码详解,及基于预训练模型进行各种自然语言处理任务。模型部署☆367Updated 4 years ago
- 该仓库主要记录 LLMs 算法工程师相关的顶会论文研读笔记(多模态、PEFT、小样本QA问答、RAG、LMMs可解释性、Agents、CoT)☆284Updated 9 months ago
- Learning Large Language Model (LLM)(大语言模型学习)☆450Updated 9 months ago
- website☆390Updated 3 months ago
- 从零实现一个小参数量中文大语言模型。☆409Updated 4 months ago
- Transformers 库 快速入门教程☆1,281Updated 3 months ago
- 本『ChatGPT资源库(原理/微调/代码/论文)』的初始版本来自July CSDN博客上阅读量高达50万的ChatGPT系列,联合发起人:七月ChatGPT原理课学员,6月初正式对外发布☆176Updated 7 months ago
- 一些 LLM 方面的从零复现笔记☆156Updated 3 months ago
- Tuning LLMs with no tears💦; Sample Design Engineering (SDE) for more efficient downstream-tuning.☆982Updated 8 months ago
- 从0到1构建一个MiniLLM (pretrain+sft+dpo实践中)☆357Updated 4 months ago
- YuLan: An Open-Source Large Language Model☆594Updated last week
- 该仓库主要记录 大模型(LLMs) 算法工程师相关的面试题☆1,626Updated 3 weeks ago
- 开源SFT数据集整理,随时补充☆474Updated last year
- personal chatgpt☆334Updated last month
- 【LLMs九层妖塔】分享 LLMs在自然语言处理(ChatGLM、Chinese-LLaMA-Alpaca、小羊驼 Vicuna、LLaMA、GPT4ALL等)、信息检索(langchain)、语言合成、语言识别、多模态等领域(Stable Diffusion、MiniGP…☆1,907Updated 9 months ago
- TextGen: Implementation of Text Generation models, include LLaMA, BLOOM, GPT2, BART, T5, SongNet and so on. 文本生成模型,实现了包括LLaMA,ChatGLM,BLO…☆946Updated 4 months ago
- 收录NLP竞赛策略实现、各任务baseline、相关竞赛经验贴(当前赛事、往期赛事、训练赛)、NLP会议时间、常用自媒体、GPU推荐等,持续更新中☆2,188Updated last year
- an implementation of transformer, bert, gpt, and diffusion models for learning purposes☆149Updated 3 months ago
- 使用peft库,对chatGLM-6B/chatGLM2-6B实现4bit的QLoRA高效微调,并做lora model和base model的merge及4bit的量化(quantize)。☆356Updated last year
- FinQwen: 致力于构建一个开放、稳定、高质量的金融大模型项目,基于大模型搭建金融场景智能问答系统,利用开源开放来促进「AI+金融」。☆324Updated 7 months ago
- 中文大模型微调(LLM-SFT), 数学指令数据集MWP-Instruct, 支持模型(ChatGLM-6B, LLaMA, Bloom-7B, baichuan-7B), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微…☆183Updated 8 months ago
- ☆626Updated last year
- chatglm多gpu用deepspeed和☆404Updated 6 months ago
- NLP新手入门教程☆1,149Updated 2 years ago
- Datawhale NLP 面筋☆178Updated 3 years ago
- 聚宝盆(Cornucopia): 中文金融系列开源可商用大模型,并提供一套高效轻量化的垂直领域LLM训练框架(Pretraining、SFT、RLHF、Quantize等)☆609Updated last year