In this video we read the original transformer paper "Attention is all you need" and implement it from scratch!
Attention is all you need paper:
[ Ссылка ]
A good blogpost on Transformers:
[ Ссылка ]
❤️ Support the channel ❤️
[ Ссылка ]
Paid Courses I recommend for learning (affiliate links, no extra cost for you):
⭐ Machine Learning Specialization [ Ссылка ]
⭐ Deep Learning Specialization [ Ссылка ]
📘 MLOps Specialization [ Ссылка ]
📘 GAN Specialization [ Ссылка ]
📘 NLP Specialization [ Ссылка ]
✨ Free Resources that are great:
NLP: [ Ссылка ]
CV: [ Ссылка ]
Deployment: [ Ссылка ]
FastAI: [ Ссылка ]
💻 My Deep Learning Setup and Recording Setup:
[ Ссылка ]
GitHub Repository:
[ Ссылка ]
✅ One-Time Donations:
Paypal: [ Ссылка ]
▶️ You Can Connect with me on:
Twitter - [ Ссылка ]
LinkedIn - [ Ссылка ]
Github - [ Ссылка ]
OUTLINE:
0:00 - Introduction
0:54 - Paper Review
11:20 - Attention Mechanism
27:00 - TransformerBlock
32:18 - Encoder
38:20 - DecoderBlock
42:00 - Decoder
46:55 - Putting it togethor to form The Transformer
52:45 - A Small Example
54:25 - Fixing Errors
56:44 - Ending
Ещё видео!