zxuu / Self-Attention
Transformer的完整实现。详细构建Encoder、Decoder、Self-attention。以实际例子进行展示,有完整的输入、训练、预测过程。可用于学习理解self-attention和Transformer
☆44Updated 7 months ago
Related projects ⓘ
Alternatives and complementary repositories for Self-Attention
- 这里用来存储做人工智能项目的代码和参加数据挖掘比赛的代码☆72Updated last month
- 阿里天池: 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答 baseline 80+☆73Updated 10 months ago
- 大模型技术栈一览☆63Updated last month
- 《跟我一起深度学习》☆181Updated 4 months ago
- 学习深度学习不如边写代码边学习,实际操作一遍才能理解数据的变换过程,参数的训练过程,这里整合了B站的jupter代码,可以结合着B站的视频边看边练,希望能对大家有帮助。☆125Updated 2 years ago
- A Transformer Framework Based Translation Task☆138Updated 3 months ago
- 此项目完成了关于 NLP-Beginner:自然语言处理入门练习 的所有任务(文本分类、信息抽取、知识图谱、机器翻译、问答系统、文本生成、Text-to-SQL、文本纠错、文本挖掘、知识蒸馏、模型加速、OCR、TTS、Prompt、embedding等),所有代码都经过测试…☆174Updated last year
- 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答, 75+ baseline☆55Updated 11 months ago
- 与Datawhale组织的现有仓库以及学习内容对话——快速找到你想学习的内容和贡献内容!☆29Updated 6 months ago
- TinyRAG☆233Updated 2 weeks ago
- 本项目是作者们根据个人面试和经验总结出的自然语言处理(NLP)面试准备的学习笔记与资料,该资料目前包含 自然语言处理各领域的 面试题积累。☆64Updated 3 years ago
- 数据科学教程案例☆108Updated last month
- ☆52Updated this week
- 大语言模型应用:RAG、NL2SQL、聊天机器人、预训练、MOE混合专家模型、微调训练、强化学习、天池数据竞赛☆49Updated 4 months ago
- 对llama3进行全参微调、lora微调以及qlora微调。☆149Updated last month
- 该仓库主要记录 大模型(LLMs) 算法工程师相关的面试题与我写的答案☆18Updated last year
- Huggingface transformers的中文文档☆172Updated last year
- DeepSpeed Tutorial☆89Updated 3 months ago
- 手把手带你从0到1实现大模型agent☆67Updated 4 months ago
- 大模型/LLM推理和部署理论与实践☆74Updated this week
- 天池算法比赛《BetterMixture - 大模型数据混合挑战赛》的第一名top1解决方案☆22Updated 4 months ago
- Z Lab数据实验室开源代码汇总☆198Updated 4 months ago
- 一些 LLM 方面的从零复现笔记☆134Updated last month
- 通义千问的DPO训练☆27Updated last month
- 一个很小很小的RAG系统☆63Updated 2 months ago
- 大模型算法岗面试题(含答案):常见问题和概念解析 "大模型面试题"、"算法岗面试"、"面试常见问题"、"大模型算法面试"、"大模型应用基础"☆277Updated last month
- 学习开源chatGPT类模型的指南,汇总各种训练数据获取、模型 微调、模型服务的方法,以及记录自己操作总遇到的各种常见坑,欢迎收藏、转发,希望能帮你省一些时间☆70Updated last year
- 一个面向小白的大模型应用开发课程☆48Updated last year
- 基于BM25、BGE的检索增强生成RAG示例☆97Updated 2 weeks ago
- 使用单个24G显卡,从0开始训练LLM☆49Updated 3 weeks ago