BostonMilk / transformer-tutorial-codeLinks
本仓库提供了一个基于PyTorch实现的Transformer模型示例代码,专为初学者设计,用以深入浅出地讲解Transformer架构的工作原理和应用。通过阅读和运行此项目中的代码,学习者可以快速理解自注意力机制、编码器-解码器结构以及如何在实际任务中使用Transformer。同时,项目包含了详细的文档说明和注释,便于跟随每一步进行实践。
☆72Updated 2 years ago
Alternatives and similar repositories for transformer-tutorial-code
Users that are interested in transformer-tutorial-code are comparing it to the libraries listed below
Sorting:
- ☆223Updated 4 years ago
- ☆62Updated last year
- LLM大模型(重点)以及搜广推等 AI 算法中手写的面试题,(非 LeetCode),比如 Self-Attention, AUC等,一般比 LeetCode 更考察一个人的综合能力,又更贴近业务和基础知识一点☆476Updated last year
- bilibili video course src code☆424Updated 2 years ago
- Transformer是谷歌在17年发表的Attention Is All You Need 中使用的模型,经过这些年的大量的工业使用和论文验证,在深度学习领域已经占据重要地位。Bert就是从Transformer中衍生出来的语言模型。我会以中文翻译英文为例,来解释Tran…☆287Updated last year
- ☆126Updated last year
- everything about llm & aigc☆111Updated last month
- 关于Transformer模型的最简洁pytorch实现,包含详细注释☆230Updated 2 years ago
- 《大模型项目实战:多领域智能应用开发》配套资源☆220Updated 2 months ago
- ☆286Updated 2 months ago
- ☆504Updated last year
- Huggingface transformers的中文文档☆293Updated 2 years ago
- ☆129Updated last year
- Transformer的完整实现。详细构建Encoder、Decoder、Self-attention。以实际例子进行展示,有完整的输入、训练、预测过程。可用于学习理解self-attention和Transformer☆123Updated 9 months ago
- ☆377Updated 9 months ago
- 复现大模型相关算法及一些学习记录☆2,916Updated last week
- ☆61Updated last year
- ☆492Updated 2 weeks ago
- 从零实现一个小参数量中文大语言模型。☆934Updated last year
- ☆125Updated 8 months ago
- 《解构大语言模型:从线性回归到通用人工智能》配套代码☆272Updated 3 months ago
- https://hnlp.boyuai.com☆106Updated last year
- 尝试自己从头写一个LLM,参考llama和nanogpt