| 2025/09/07

GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning

この動画で学べること

  • 「GPT(Generative Pre-Trained Transformer)」の全体像と役割

  • 入力テキストのトークン化埋め込み(ベクトル化)の意味

  • 文脈に応じて情報を集めるアテンション(注意)ブロックの直感

  • MLP(フィードフォワード層)での並列変換と層を重ねる意義

  • 最後のベクトルから語彙分布を出す出力(アンエンベディング+ソフトマックス)の流れ

  • 「重み=行列」が学習でどう育ち、予測が文章生成に変わるかの見取り図。 3Blue1Brown

前へ

【先行者利益】絶対押さえるべき「LLMO」対策の具体的な方法を徹底解説!Google検索→AI検索時代へ!

次へ

OpenAI gpt-oss評価で発覚した驚愕の逆スケーリング現象とは?(2508.12461)【論文解説シリーズ】