2017年のTransformer論文「Attention Is All You Need」を、数式ひとつ(scaled dot-product attention)と比喩ひとつ(図書館のQ・K・V)で最後まで読み切る。mathbullet動画連動。ChatGPT・Claudeの中で実際に動くattentio
プロンプトエンジニアリングは文章作法ではなく、確率分布を傾ける技術です。Zero-shot・Few-shot・Chain-of-Thoughtがなぜ効くのか、「Let’s think step by step」の1行がなぜベンチマークを動かしたのか、条件付き確率の視点から最後まで解説します。AIのしくみ地図9
Claude 1MトークンやGemini 2Mのヘッドラインが「AIの記憶力が上がった」に聞こえますが、context window・session memory・persistent memoryはまったく違う3つです。Lost in the middle・compaction・Doc-to-LoRAまで、