BostonMilk / transformer-tutorial-codeLinks
本仓库提供了一个基于PyTorch实现的Transformer模型示例代码,专为初学者设计,用以深入浅出地讲解Transformer架构的工作原理和应用。通过阅读和运行此项目中的代码,学习者可以快速理解自注意力机制、编码器-解码器结构以及如何在实际任务中使用Transformer。同时,项目包含了详细的文档说明和注 释,便于跟随每一步进行实践。
☆66Updated last year
Alternatives and similar repositories for transformer-tutorial-code
Users that are interested in transformer-tutorial-code are comparing it to the libraries listed below
Sorting:
- ☆210Updated 3 years ago
- Transformer是谷歌在17年发表的Attention Is All You Need 中使用的模型,经过这些年的大量的工业使用和论文验证,在深度学习领域已经占据重要地位。Bert就是从Transformer中衍生出来的语言模型。我会以中文翻译英文为例,来解释Tran…☆288Updated last year
- bilibili video course src code☆403Updated 2 years ago
- 基于stablebaseline3强化学习框架 和gym-super-mario-bros马里奥游戏包,训练马里奥通关。☆165Updated 5 months ago
- LLM Course;☆87Updated last year
- LLM大模型(重点)以及搜广推等 AI 算法中手写的面试题,(非 LeetCode),比如 Self-Attention, AUC等,一般比 LeetCode 更考察一个人的综合能力,又更贴近业务和基础知识一点☆446Updated 11 months ago
- ☆280Updated last week
- ☆44Updated 2 years ago
- 复现大模型相关算法及一些学习记录☆2,620Updated this week
- ☆61Updated last year
- Transformer的完整实现。详细构建Encoder、Decoder、Self-attention。以实际例子进行展示,有完整的输入、训练、预测过程。可用于学习理解self-attention和Transformer☆113Updated 7 months ago
- everything about llm & aigc☆109Updated 2 months ago
- Huggingface transformers的中文文档☆280Updated 2 years ago
- 博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-trainin…☆474Updated 3 years ago
- 《大模型项目实战:多领域智能应用开发》配套资源☆210Updated last week
- ☆456Updated 6 months ago
- 关于Transformer模型的最简洁pytorch实现,包含详细注释☆226Updated 2 years ago
- ☆118Updated last year
- ☆126Updated 6 months ago
- ☆480Updated last year
- 尝试自己从头写一个LLM,参考llama和nanogpt☆69Updated last year
- ☆720Updated 2 years ago
- ☆463Updated 4 months ago
- pytorch复现transformer☆88Updated last year
- 历年ICLR论文和开源项目合集,包含ICLR2021、ICLR2022、ICLR2023、ICLR2024、ICLR2025.☆512Updated 8 months ago
- ☆104Updated 5 months ago
- 从零实现一个小参数量中文大语言模型。☆891Updated last year
- ☆127Updated last year
- 《解构大语言模型:从线性回归到通用人工智能》配套代码☆261Updated last month
- ☆59Updated last year