qiaofengsheng / pytorch-transformerLinks
☆26Updated 11 months ago
Alternatives and similar repositories for pytorch-transformer
Users that are interested in pytorch-transformer are comparing it to the libraries listed below
Sorting:
- 关于Transformer模型的最简洁pytorch实现,包含详细注释☆226Updated 2 years ago
- Transformer是谷歌在17年发表的Attention Is All You Need 中使用的模型,经过这些年的大量的工业使用和论文验证,在深度学习领域已经占据重要地位。Bert就是从Transformer中衍生出来的语言模型。我会以中文翻译英文为例,来解释Tran…☆288Updated last year
- 模型压缩的小白入门教程,PDF下载地址 https://github.com/datawhalechina/awesome-compression/releases☆344Updated 3 weeks ago
- ☆215Updated 3 years ago
- 深度学习系统笔记,包含深度学习数学基础知识、神经网络基础部件详解、深度学习炼丹策略、模型压缩算法详解。☆504Updated last week
- pytorch复现transformer☆89Updated last year
- 我的AI学习笔记。包括b站up主deep_thoughts的PyTorch课程笔记和相关代码;北邮深度学习与数字视频PPT代码。☆40Updated last year
- Transformer的完整实现。详细构建Encoder、Decoder、Self-attention。以实际例子进行展示,有完整的输入、训练、预测过程。可用于学习理解self-attention和Transformer☆116Updated 8 months ago
- 大模型/LLM推理和部署理论与实践☆368Updated 5 months ago
- yolo master 本课程主要对yolo系列模型进行介绍,包括各版本模型的结构,进行的改进等,旨在帮助学习者们可以了解和掌握主要yolo模型的发展脉络,以期在各自的应用领域可以进一步创新并在自己的任务上达到较好的效果。☆265Updated 5 months ago
- Summary of deep learning theory☆64Updated last month
- Use interactive notebook to break down MiniMind code and learn from scratch.☆122Updated 8 months ago
- 《Deep Learning Tuning Playbook》中文翻译版本☆151Updated 2 years ago
- 解锁HuggingFace生态的百般用法☆97Updated last year
- LLM大模型(重点)以及搜广推等 AI 算法中手写的面试题,(非 LeetCode),比如 Self-Attention, AUC等,一般比 LeetCode 更考察一个人的综合能力,又更贴近业务和基础知识一点☆450Updated 11 months ago
- Qwen3 Fine-tuning: Medical R1 Style Chat☆249Updated 6 months ago
- 最少使用 3090 即可训练自己的比特大脑(miniLLM)🧠(进行中). Train your own BitBrain(A mini LLM) with just an RTX 3090 minimum.☆39Updated 5 months ago
- bilibili video course src code☆412Updated 2 years ago
- 通过带领大家解读Transformer模型来加深对模型的理解☆230Updated 6 months ago
- 尝试自己从头写一个LLM,参考llama和nanogpt☆68Updated last year
- bilibili视频讲解所使用的课件代码记录☆27Updated 2 months ago
- a chinese tutorial of git☆159Updated last year
- MoE model with onnx runtime☆56Updated last year
- LLM Tokenizer with BPE algorithm☆45Updated last year
- ☆28Updated 5 months ago
- from MHA, MQA, GQA to MLA by 苏剑林, with code☆34Updated 10 months ago
- 轻量级大语言模型MiniMind的源码解读,包含tokenizer、RoPE、MoE、KV Cache、pretraining、SFT、LoRA、DPO等完整流程☆522Updated 6 months ago
- 人工智能培训课件资源☆142Updated 3 weeks ago
- Huggingface transformers的中文文档☆284Updated 2 years ago
- ☆263Updated 2 weeks ago