- Une vidéo (3 h 31) qui explique en profondeur, pour le grand public, la technologie d’IA des grands modèles de langage (LLM) qui propulsent ChatGPT et des produits apparentés
- Elle aborde la manière de penser la « psychologie » des modèles, l’ensemble de la pile d’entraînement expliquant comment ils sont développés, ainsi qu’un modèle mental pour en tirer le meilleur parti dans des applications réelles
- Une version un peu plus complète que la vidéo "Intro to LLMs" publiée il y a un an
Chapitres
00:00:00 introduction
00:01:00 pretraining data (internet)
00:07:47 tokenization
00:14:27 neural network I/O
00:20:11 neural network internals
00:26:01 inference
00:31:09 GPT-2: training and inference
00:42:52 Llama 3.1 base model inference
00:59:23 pretraining to post-training
01:01:06 post-training data (conversations)
01:20:32 hallucinations, tool use, knowledge/working memory
01:41:46 knowledge of self
01:46:56 models need tokens to think
02:01:11 tokenization revisited: models struggle with spelling
02:04:53 jagged intelligence
02:07:28 supervised finetuning to reinforcement learning
02:14:42 reinforcement learning
02:27:47 DeepSeek-R1
02:42:07 AlphaGo
02:48:26 reinforcement learning from human feedback (RLHF)
03:09:39 preview of things to come
03:15:15 keeping track of LLMs
03:18:34 where to find LLMs
03:21:46 grand summary
2 commentaires
Le défaut (?) des vidéos d’Andrej Karpathy, c’est qu’il est absolument impossible de les regarder en 1,5x. Il parle vraiment très vite. :-)
Avis Hacker News
J’ai beaucoup de respect pour cette personne. C’est comme Neo, qui comble le fossé entre les humains et les machines. Ce que j’ai appris gratuitement grâce à ses dépôts et à ses vidéos :
Je dis à mes amis qu’Andrej était le meilleur enseignant que j’ai rencontré pendant mes études supérieures. Je ne suis pas allé à Stanford, mais j’ai regardé ses vidéos YouTube de CS321n. Je suis très content qu’il fasse encore des vidéos
Il a déjà fait plus de cinq vidéos couvrant essentiellement le même sujet sur l’architecture des transformers et l’entraînement. Je me demande ce qui est différent dans cette vidéo
J’adore vraiment sa série "let's build". En plus du contenu avancé, on y apprend aussi de super astuces Python
Ça me frustre de ne pas pouvoir me concentrer sur les longues vidéos. Il y a de fortes chances que ces vidéos soient bien meilleures que les vidéos courtes
Je me souviens encore de la façon de faire de la rétropropagation avec des listes Python dans le cadre d’un projet de CS231n. Ce qui est étonnant, c’est que je ne suis pas allé à Stanford
Merci à Andrej. J’ai une assez bonne compréhension de la façon dont les LLM fonctionnent et sont entraînés, mais beaucoup de mes amis ne l’ont pas. Cette vidéo et ces cours leur donnent au moins "une certaine" idée
J’aimerais qu’il y ait d’autres moyens de distribuer la vidéo. Sur YouTube, le contenu finit par disparaître. Je pense que ce contenu est important. Plus les gens comprendront comment fonctionne l’IA, plus la société sera forte
J’ai tout regardé... mes joues se sont endormies, mais ça en valait la peine. Merci, Andrej
Je suis un homme simple. Si je vois une vidéo de Karpathy, je clique, je regarde et j’apprécie