Let's understand the intuition, math and code of Self Attention in Transformer Neural Networks
ABOUT ME
⭕ Subscribe: [ Ссылка ]
📚 Medium Blog: [ Ссылка ]
💻 Github: [ Ссылка ]
👔 LinkedIn: [ Ссылка ]
RESOURCES
[ 1🔎] Code for video: [ Ссылка ]
[2 🔎] Transformer Main Paper: [ Ссылка ]
[3 🔎] Bidirectional RNN Paper: [ Ссылка ]
PLAYLISTS FROM MY CHANNEL
⭕ ChatGPT Playlist of all other videos: [ Ссылка ]
⭕ Transformer Neural Networks: [ Ссылка ]
⭕ Convolutional Neural Networks: [ Ссылка ]
⭕ The Math You Should Know : [ Ссылка ]
⭕ Probability Theory for Machine Learning: [ Ссылка ]
⭕ Coding Machine Learning: [ Ссылка ]
MATH COURSES (7 day free trial)
📕 Mathematics for Machine Learning: [ Ссылка ]
📕 Calculus: [ Ссылка ]
📕 Statistics for Data Science: [ Ссылка ]
📕 Bayesian Statistics: [ Ссылка ]
📕 Linear Algebra: [ Ссылка ]
📕 Probability: [ Ссылка ]
OTHER RELATED COURSES (7 day free trial)
📕 ⭐ Deep Learning Specialization: [ Ссылка ]
📕 Python for Everybody: [ Ссылка ]
📕 MLOps Course: [ Ссылка ]
📕 Natural Language Processing (NLP): [ Ссылка ]
📕 Machine Learning in Production: [ Ссылка ]
📕 Data Science Specialization: [ Ссылка ]
📕 Tensorflow: [ Ссылка ]
TIMSTAMPS
0:00 Introduction
0:34 Recurrent Neural Networks Disadvantages
2:12 Motivating Self Attention
3:34 Transformer Overview
7:03 Self Attention in Transformers
7:32 Coding Self Attetion
Ещё видео!