zxuu / Self-Attention
Transformer的完整实现。详细构建Encoder、Decoder、Self-attention。以实际例子进行展示,有完整的输入、训练、预测过程。可用于学习理解self-attention和Transformer
☆61Updated 11 months ago
Alternatives and similar repositories for Self-Attention:
Users that are interested in Self-Attention are comparing it to the libraries listed below
- 这里用来存储做人工智能项目的代码和参加数据挖掘比赛的代码☆87Updated 3 months ago
- 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答, 75+ baseline☆56Updated last year
- 大语言模型应用:RAG、NL2SQL、聊天机器人、预训练、MOE混合专家模型、微调训练、强化学习、天池数据竞赛☆56Updated 3 weeks ago
- 一个很小很小的RAG系统☆151Updated 3 months ago
- 大模型技术栈一览☆84Updated 5 months ago
- 快速入门RAG与私有化部署☆152Updated 10 months ago
- 此项目完成了关于 NLP-Beginner:自然语言处理入门练习 的所有任务(文本分类、信息抽取、知识图谱、机器翻译、问答系统、文本生成、Text-to-SQL、文本纠错、文本挖掘、知识蒸馏、模型加速、OCR、TTS、Prompt、embedding等),所有代码都经过测试…☆186Updated last year
- 大模型/LLM推理和部署理论与实践☆184Updated 3 weeks ago
- 阿里天池: 2023全球智能汽车AI挑战赛——赛道一:AI大模型检索问答 baseline 80+☆89Updated last year
- ☆120Updated last year
- ☆53Updated 10 months ago
- 数据科学教程案例☆135Updated 2 months ago
- TinyRAG☆269Updated 4 months ago
- A Transformer Framework Based Translation Task☆146Updated 2 weeks ago
- 一些 LLM 方面的从零复现笔记☆168Updated 5 months ago
- 大模型基础学习和面试八股文☆89Updated 11 months ago
- ☆22Updated this week
- Transformer是谷歌在17年发表的Attention Is All You Need 中使用的模型,经过这些年的大量的工业使用和论文验证,在深度学习领域已经占据重要地位。Bert就是从Transformer中衍生出来的语言模型。我会以中文翻译英文为例,来解释Tran…☆233Updated 10 months ago
- 《跟我一起深度学习》@月来客栈 出品☆200Updated 7 months ago
- 使用单个24G显卡,从0开始训练LLM☆50Updated 4 months ago
- ☆21Updated 10 months ago
- LLM大模型(重点)以及搜广推等 AI 算法中手写的面试题,(非 LeetCode),比如 Self-Attention, AUC等,一般比 LeetCode 更考察一个人的综合能力,又更贴近业务和基础知识一点☆160Updated 2 months ago
- 天池比赛【NLP】医学搜索Query相关性判断 第三名方案☆35Updated last year
- 天池算法比赛《BetterMixture - 大模型数据混合挑战赛》的第一名top1解决方案☆27Updated 7 months ago
- ☆32Updated 3 months ago
- pytorch分布式训练☆63Updated last year
- 解锁HuggingFace生态的百般用法☆88Updated 2 months ago
- ☆69Updated 3 months ago
- 包含程序员面试大厂面试题和面试经验☆119Updated 2 months ago
- 基于ReAct手搓一个Agent Demo☆115Updated 10 months ago