GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning
この動画で学べること
「GPT(Generative Pre-Trained Transformer)」の全体像と役割
入力テキストのトークン化と埋め込み(ベクトル化)の意味
文脈に応じて情報を集めるアテンション(注意)ブロックの直感
MLP(フィードフォワード層)での並列変換と層を重ねる意義
最後のベクトルから語彙分布を出す出力(アンエンベディング+ソフトマックス)の流れ
「重み=行列」が学習でどう育ち、予測が文章生成に変わるかの見取り図。 3Blue1Brown
前へ
OpenAI gpt-oss評価で発覚した驚愕の逆スケーリング現象とは?(2508.12461)【論文解説シリーズ】
次へ