statisticszhang / Deep-Learning-with-PyTorch-Tutorials
深度学习与PyTorch入门实战视频教程 配套源代码和PPT
☆79Updated 5 years ago
Alternatives and similar repositories for Deep-Learning-with-PyTorch-Tutorials:
Users that are interested in Deep-Learning-with-PyTorch-Tutorials are comparing it to the libraries listed below
- ☆65Updated 4 years ago
- 个人的技能树仓库,主要包含个人机器学习以及深度学习的笔记☆364Updated 3 years ago
- Gitbook Address: https://app.gitbook.com/@nlpgroup/s/nlpnote/☆158Updated 3 years ago
- Pytorch_Learning_Notes☆101Updated 2 weeks ago
- ☆16Updated 3 years ago
- ☆81Updated last year
- using nn.Transformer() module to accomplish a machine learning demo.☆13Updated 2 years ago
- ☆370Updated 4 years ago
- Pytorch、Scikit-learn实现多种分类方法,包括逻辑回归(Logistic Regression)、多层感知机(MLP)、支持向量机(SVM)、K近邻(KNN)、CNN、RNN,极简代码适合新手小白入门,附英文实验报告(ACM模板)☆403Updated 4 years ago
- 使用改良的Transformer模型应用于多维时间序列的分类任务上☆83Updated 3 years ago
- 个人练习,自编码器及其变形(理论+实践)☆336Updated 5 years ago
- NLP自然语言处理学习汇总☆47Updated 4 years ago
- 这个仓库主要包含了LSTM、卷积神经网络中,注意力机制的实现。☆133Updated 4 years ago
- ☆193Updated 4 years ago
- Codes for time series forecast☆146Updated 4 years ago
- ☆267Updated 2 years ago
- 《深度学习之PyTorch实战计算机视觉》全书代码☆132Updated 5 years ago
- AI学习过程中的实操代码☆205Updated 4 years ago
- 一个关于pytorch的入门教程,该教程写于2018年,之后pytorch版本经过更新,部分代码需要更改,使用者请自行改之。☆112Updated 6 years ago
- 全中文的机器学习算法工程师面试基础问题总结☆68Updated 2 years ago
- Natural Language Processing Tutorial for Deep Learning Researchers☆1,115Updated 3 years ago
- wirte simple models by pytorch,such as lstm/gru/bilstm☆37Updated 2 years ago
- Autoencoders in PyTorch☆100Updated 5 years ago
- 李宏毅2021机器学习深度学习笔记PPT作业☆551Updated 3 years ago
- 《Python深度学习基于PyTorch》 Deep Learning with Python and PyTorch 作者:吴茂贵 郁明敏 杨本法 李涛 张粤磊 等☆89Updated 3 years ago
- ☆149Updated 8 months ago
- 该存储库包含由deeplearning.ai提供的相关课程的个人的笔记和实现代码。☆367Updated 2 years ago
- 深度学习 注意力机制模块 时间 空间注意力通道☆29Updated last year
- 学习深度学习不如边写代码边学习,实际操作一遍才能理解数据的变换过程,参数的训练过程,这里整合了B站的jupter代码,可以结合着B站的视频边看边练,希望能对大家有帮助。☆127Updated 2 years ago
- 在sts数据集上用多头注意力机制上进行测试。 pytorch torchtext 代码简练,非常适合新手了解多头注意力机制的运作。不想transformer牵扯很多层 multi-head attention + one layer linear☆16Updated 5 months ago