BostonMilk / transformer-tutorial-code
本仓库提供了一个基于PyTorch实现的Transformer模型示例代码,专为初学者设计,用以深入浅出地讲解Transformer架构的工作原理和应用。通过阅读和运行此项目中的代码,学习者可以快速理解自注意力机制、编码器-解码器结构以及如何在实际任务中使用Transformer。同时,项目包含了详细的文档说明和注释,便于跟随每一步进行实践。
☆39Updated 10 months ago
Related projects ⓘ
Alternatives and complementary repositories for transformer-tutorial-code
- ☆105Updated last week
- ☆116Updated last year
- ☆33Updated 2 weeks ago
- An easier PyTorch deep reinforcement learning library.☆167Updated this week
- 中文翻译的 Hands-On-Large-Language-Models (hands-on-llms),动手学习大模型☆71Updated 2 weeks ago
- ☆153Updated 2 years ago
- everything about llm & aigc☆42Updated this week
- ☆104Updated this week
- ☆17Updated last year
- LLM Course;☆42Updated last week
- 《趣味深度学习公开课》配套代码☆43Updated last year
- 图深度学习(葡萄书),在线阅读地址: https://datawhalechina.github.io/grape-book☆208Updated 7 months ago
- 大模型/LLM推理和部署理论与实践☆84Updated this week
- bilibili video course src code☆301Updated last year
- 基于OpenVINO,本地部署大模型智能体Agent,控制TonyPi人形机器人☆81Updated last week
- 大模型技术栈一览☆64Updated 2 months ago
- 解锁HuggingFace生态的百般用法☆68Updated this week
- 模型压缩的小白入门教程☆199Updated this week
- ☆127Updated last year
- Transformer是谷歌在17年发表的Attention Is All You Need 中使用的模型,经过这些年的大量的工业使用和论文验证,在深度学习领域已经占据重要地位。Bert就是从Transformer中衍生出来的语言模型。我会以中文翻译英文为例,来解释Tran…☆204Updated 7 months ago
- 「大模型」3小时从0训练27M参数的视觉多模态VLM,个人显卡即可推理训练!☆376Updated this week
- Transformer的完整实现。详细构建Encoder、Decoder、Self-attention。以实际例子进行展示,有完整的输入、训练、预测过程。可用于学习理解self-attention和Transformer☆45Updated 8 months ago
- Demos for deep learning☆415Updated last year
- a chinese tutorial of git☆146Updated 7 months ago
- AI 大模型相关算法中手写的面试题,(非 LeetCode),比如 Self-Attention, AUC等,一般比 LeetCode 更考察一个人的综合能力,又更贴近业务和基础知识一点☆26Updated last month
- Hugging StableDiffusion, Hugging Future.☆115Updated 4 months ago
- 我的Datawhale组队学习,在线阅读地址:https://relph1119.github.io/my-team-learning☆61Updated 8 months ago
- 这里用来存储做人工智能项目的代码和参加数据挖掘比赛的代码☆72Updated last month
- AutoDL平台服务器适配梯子, 使用 Clash 作为代理工具☆137Updated last week
- 《科研论文配图》组队学习☆68Updated last year