nickchen121 / Pre-training-language-model
博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html
☆378Updated 2 years ago
Alternatives and similar repositories for Pre-training-language-model:
Users that are interested in Pre-training-language-model are comparing it to the libraries listed below
- 学习深度学习不如边写代码边学习,实际操作一遍才能理解数据的变换过程,参数的训练过程,这里整合了B站的jupter代码,可以结合着B站的视频边看边练,希望能对大家有帮助。☆126Updated 2 years ago
- Transformer Encoder PyTorch note☆92Updated last year
- bert-base-chinese example☆867Updated last year
- ☆119Updated last year
- Transformer是谷歌在17年发表的Attention Is All You Need 中使用的模型,经过这些年的大量的工业使用和论文验证,在深度学习领域已经占据重要地位。Bert就是从Transformer中衍生出来的语言模型。我会以中文翻译英文为例,来解释Tran…☆218Updated 8 months ago
- ☆38Updated 2 months ago
- 自然语言处理学习笔记:机器学习及深度学习原理和示例,基于 Tensorflow 和 PyTorch 框架,Transformer、BERT、ALBERT等最新预训练模型及源代码详解,及基于预训练模型进行各种自然语言处理任务。模型部署☆367Updated 4 years ago
- ☆156Updated 2 years ago
- 《动手学深度学习》习题解答,在线阅读地址如下:☆389Updated 6 months ago
- 大模型算法岗面试题(含答案):常见问题和概念解析 "大模型面试题"、"算法岗面试"、"面试常见问题"、"大模型算法面试"、"大模型应用基础"