同じChatGPTで、ある人は60年難問を解き、ある人は晩ご飯を決める——AI格差はこれから本当に開く

同じChatGPTで、ある人は60年難問を解き、ある人は晩ご飯を決める——AI格差はこれから本当に開く

📖 7分で読める · 太一郎ノート

この記事でわかる 3 つ

  • ① 同じGPT-5.4 Proで60年難題を解いた人と、晩ご飯を決めただけの人を分けた一線
  • ② 「プロンプト一発で解けた」という見出しに隠れた、本当の前提条件
  • ③ AIが普及するほど格差が縮まらず、むしろ広がる理由

AI格差」って言葉、ここ何年もちょこちょこ聞くよね。

ただ、僕がそれを本当に怖いと感じたのは、今週流れてきたあるニュースを読んだとき。

数学を専門に学んだことがない23歳の青年が、月200ドルのChatGPT Pro契約だけで、60年解けなかった数学難問を片付けてしまった。同じ日に、地球上の何億人もが同じChatGPTに「今日の晩ご飯どうしよう」を聞いていた。

道具は同じ。値段も同じ。違うのは、AIに仕事をさせている人と、AIに動きを決められている人の差。これが2026年4月の現実だし、しかもこの差は来年に縮まらない。むしろ広がる。

今日はそれを、Scientific Americanが報じた60年難題のニュースから、ちょっと現場感覚で書いていく。


60年解けなかった問題が、月曜の昼下がりに片付いた

ひとこと要約: 23歳のアマチュアがChatGPT Proに難問を投げて約80分。専門家60年分の壁が、たった1ターンの応答で崩れた。

主役はリアム・プライス(Liam Price)。23歳。高度な数学教育は受けていない。

最初に断っておくと、「ChatGPT Pro」は ChatGPT Plus とは別物だ。OpenAIの2026年4月時点の料金は、Plus が月20ドルPro が月200ドル(その下に5倍使える $100 Pro もある)。GPT-5.4 Pro という最上位モデルへの無制限アクセスは月200ドルの Pro プランに入って初めて開く。プライスは最初、無料版で遊んでいたが、ある AI 研究者が彼とパートナーのバレトに Pro 契約をプレゼントしたことで、GPT-5.4 Pro が手元に来た(Scientific American)。月200ドルは個人が日常使いするにはハードルがある金額で、これ自体すでに「AI格差」の一つの軸になっている。

ある月曜の暇な午後、彼はエルデシュ未解決問題を集めたサイトerdosproblems.comから問題1196番をひとつ選んで、ChatGPT Proの最新モデル「GPT-5.4 Pro」にそのまま貼り付けた。

「問題が何を意味してるかも分かってなかったよ。普段からたまにエルデシュの問題をAIに投げてみて、何が返ってくるか眺めてるだけ。今回も同じノリだった」(プライス、Scientific American)

返ってきたのは、約80分の推論を経た一発の応答。彼はそれをケンブリッジ大学数学科2年のケビン・バレト(Kevin Barreto)に転送した。

バレトは違和感に気づいて、現存最高の数学者と呼ばれるテレンス・タオ(Terence Tao、UCLA、フィールズ賞)と、博士論文でこの問題群を扱ったジャレド・リヒトマン(Jared Lichtman、スタンフォード)に連絡を入れた。

タオはこう評している。

「この問題に取り組んだ人たちは、最初の一手のところで、皆そろって少しズレた方向に進んでいた。心理的なブロックみたいなものがあったように見える」(Scientific American

GPT-5.4 Proが使った道具は、整数論の他の領域では90年前から知られているマルコフ連鎖と von Mangoldt 重みの組み合わせ。新発見の道具じゃない。ただ、原始集合の問題に誰もそれを当ててこなかった——それだけ。

問題1196番はその後 Lean で形式検証され、サイト上で「PROVED (LEAN)」のステータスがついている(erdosproblems.com 公式ページ)。


そもそもこの問題、何を聞いていたのか——「原始集合」と「エルデシュ和」

ひとこと要約: 問題1196番は1968年に提示された推測。「素数のような割り切れない集合の点数」が、数を大きくしていくとどこに収束するか——というシンプルな疑問だった。

ニュースの見出しだと「60年難問」「数学難題」という単語で片付けられがちなんだけど、せっかくなのでこの問題が何を聞いていたのかをちゃんと押さえておく。理解できたほうが、AIの突破がどれだけ意外だったかも腹に落ちる。

原始集合(primitive set)とは

整数 1, 2, 3, … の中から、ある条件を満たす集合を選ぶ話。

集合のなかのどの2つの数も、片方がもう片方を割り切れない——これを満たす整数の集合を「原始集合」と呼ぶ。

例:

  • {2, 3, 5, 7, 11, ...}(素数全部)→ 原始集合(素数同士はお互いを割らない)
  • {6, 10, 15} → 原始集合(どれもお互いを割らない)
  • {4, 8} → ❌(4が8を割る)

素数は「自分以外で割れない数」だが、エルデシュはこの「割れない」性質を集合にまで広げた。これが原始集合(primitive set)。

エルデシュ和(Erdős sum)とは

エルデシュは、原始集合 A に対して次の値を「点数」として定義した。

S(A) = Σ ( 1 / (a × log a) ) ※ a ∈ A

集合に含まれる数 a について、1 / (a × log a) を全部足したもの。

この点数 S(A) が——

何が? 結果
上限の最大値 リヒトマン(スタンフォード)が2022年の博士論文で素数集合のとき最大 ≈ 1.399 と証明
数を大きくしていくとどうなるか? エルデシュ・サルコジ・セメレディ(1968)が「1に収束する」と推測 ⇐ これが60年解けなかった

つまり、「**数 a を無限に大きくしていったとき、エルデシュ和は本当に1に近づくのか?**」これが問題1196番の本体。

なぜ60年解けなかったのか

リヒトマン本人もこの問題に挑んだが、突破できなかった。タオの分析によると、この問題に取り組んだ研究者は、ほぼ全員が同じ最初の一手から始めて、同じ袋小路に入っていた

「最初の一手のところで、皆そろって少しズレた方向に進んでしまっていた。心理的なブロックみたいなものがあった」(タオ、Scientific American)

ここで GPT-5.4 Pro がやったのは、マルコフ連鎖 + von Mangoldt 重みという、整数論の他の領域では90年前から知られている道具を持ってきたこと。新しい数学を発明したわけじゃない。ただ、誰もこの問題にこの道具を持ってこなかった

例えるなら、60年間、世界中の登山家が同じ正面ルートで山を攻めて全員撤退してきた。ある日、登山経験のないアマチュアが付き添い無しで山に入って、AIに「どこから登れる?」と聞いたら、AIが側面から登れることを示した——という事件に近い。側面の存在自体は前から知られていた。誰もそこを試さなかっただけ。

タオは結果について、こう短くまとめている。

大きな数とその構造について、新しい考え方が見つかった。これは良い成果だ。長期的な意義については、まだ判断中」(タオ、Scientific American)

「マルコフ連鎖+von Mangoldt」のセットは1196番だけじゃなく、似た構造の他のエルデシュ問題にも使える可能性があると、タオとリヒトマンは示唆している。

💡 ここがこの事件の特異点

AIが解いたのは「新しい道具で初めて解ける問題」じゃなかった。古い道具で解けたのに、誰も試さなかった問題だった。AIの強みは「人間がうっかり外していた接続」を当てられること——これがこの事件の核心の一つ。


同じ日、同じChatGPTでこういう会話も起きていた

ひとこと要約: プライスが60年難題を片付けたまさにその日、何百万人もの人が「献立」「天気」「彼氏への返信」をChatGPTに丸投げしていた。

これ、皮肉でもなんでもなくて、ただの統計の話。

OpenAIの2025年公開データだと、ChatGPTの週次アクティブユーザーは7億人を超えてる。そのほとんどは数学者じゃない。

僕の周りでも、ChatGPTの使い方は3つに分かれる。

タイプ 典型的なプロンプト 出力に対する態度
A. 道具として使う人 「この設計、A案とB案で迷ってる。前提はXとY。判断基準を5つ出して」 出力を叩き台として読む
B. 検索の代わりに使う人 「○○とは?」「△△の使い方は?」 出力をそのまま信じる
C. 決定を委ねる人 「今日の晩ご飯何がいい?」「彼にどう返信したらいい?」 出力に従って動く

プライスは典型的なA。彼は「正解」を求めにいかない。AIが何を出してくるかを観察して、面白そうなものだけ追いかけてた。普段から何度も投げて、ハズレもいっぱい見てきてる。だから当たりを引いたとき、当たりだって気づけた

Cはその逆。ChatGPTが「カルボナーラがいいですよ」って言えば、実際にカルボナーラを作る。決めるのはAIで、人間はその通りに体を動かしてるだけ。

道具は同じ。でも主語が逆になってる。

💡 ここが核心

AI格差の本質は「AIを使えるかどうか」じゃない。
AIに仕事をさせてるのか、AIに動きを決められてるのか——主語の向きの差。


「プロンプト一発で解けた」は、半分しか本当じゃない

ひとこと要約: プライスが投げた「一発」の裏には、選別する眼と検証する習慣と問い返す技術がある。それは事故的に身についたものじゃない。

ニュースの見出しはどうしても「プロンプト一発で60年難題が解けた」になる。インパクトがあるから。

でもScientific Americanの本文をちゃんと読むと、その「一発」の前後にいくつかの工程が見えてくる。

  1. 問題の選別:プライスとバレトは、erdosproblems.comから問題をランダムに選んで無料版ChatGPTに投げる遊びを、2025年末から続けていた。当然、ほとんどはハズレ。
  2. 見極めの目:今回もプライス本人は問題の意味を分かっていなかった。それでも「これは当たりかも」って思える勘は、何百回ものハズレを見てきたから生まれてる。
  3. 専門家のパートナー:プライスはひとりで判定してない。バレトに転送して、バレトがタオとリヒトマンに繋いだ。
  4. 「原稿は粗かった」:リヒトマンの証言——「ChatGPTが出した証明の生原稿は、正直かなり粗かった。専門家が中身を解きほぐして、何を言いたいのか理解する必要があった」。
  5. 書き直し:タオとリヒトマンが、その後の数日でAIの核心アイデアを抜き出して、より短くきれいな証明に書き直した。

つまり実際は「プロンプト一発」じゃない。AIに問いを投げ続ける習慣、AIの出力から核を抜き出す目、それを検証してくれる専門家ネットワーク——この3つがあったところに、たまたま一発で核アイデアが出てきた。

「プロンプト一発」は記事の見出しとしては正確だけど、現実の前提条件として読むと危ない。そこを読み違えると、自分も「とりあえず難問を投げれば解けるかも」って思ってハズレ200回でAIをやめることになる。


誤解しないでほしい——「学校の数学、もう要らない」ではない

ひとこと要約: プライスが頼った相手は、ケンブリッジ大学数学科の学部2年生だった。学問教育が不要になるんじゃなくて、学問教育のかたちが変わるって話。

この事件、よく読むと一番大事なディテールはここにある——プライスがChatGPTの出力を最初に送った相手は、ケンブリッジ大学数学科2年のケビン・バレトだった。

「正規の数学教育を受けてない23歳が、AI一人で60年難題を片付けた」——見出しだけ取ると、「じゃあもう数学なんて勉強しなくていいじゃん」って読みたくなる。

でもScientific Americanの本文を冷静に追うと、そうはならない。

  • プライス本人は問題の意味を正確には理解していなかった
  • 「これはたぶん当たりだ」と判定したのはバレト(数学科の学生)
  • そのバレトがタオ(フィールズ賞)とリヒトマン(スタンフォード)に繋いだ
  • 出力の生原稿は粗かったので、専門家が書き直して学術的な体裁に整えた
  • 最終的な証明はLean で形式検証済み(erdosproblems.com 公式

つまり今回の突破は、(数学を知らない一般人 × AI) 単独じゃなくて、(一般人 × AI) + 数学専門家 の協業で成立してる。専門家がいなかったら、出力は永遠に「粗い原稿」のまま、難題突破にもならなかった。

ここから言えるのは「学問教育は不要」じゃなくて、「学問教育のかたちが変わっていく」ってこと。

これまで これから(こう変わっていきそう)
計算ドリル・公式暗記の比重が高い AIが代行する領域。比重は下がっていく
数式を一文字ずつ手で書いて理解する AIの出力を読み解く精度が問われる
試験で「自分で解ける」ことが評価軸 「AIが出した答えを疑い、訂正できる」が評価軸になっていく
専門家=ひたすら論文を量産する人 専門家=AIの粗い原稿を価値ある成果に磨ける

タオが Nature インタビューで「仕事の定義が変わりつつある」と言ったのは、まさにこういう意味(Nature, 2026-04-27)。数学者が消えるんじゃなくて、数学者の「やる仕事」が変わる。教育もその影響をまっすぐ受ける。

学校の数学や科学や国語が要らなくなるわけじゃない。ただ、これからは「AIの出力を判定できる地頭」を育てる教育がコアになっていく——少なくとも、そっちに重心が移っていきそうだ。プライスの勘と、バレトの基礎学力が組み合わさって初めて事件が成立した、というディテールは、教育論としてけっこう重い。


なぜプロンプト学習が、結局「AI基礎知識」に行き着くのか

ひとこと要約: プロンプトの上手下手は、文章テクニックの差じゃなくて、AIがどう動いてるかの理解度の差。だから「プロンプト集」を覚えても伸び悩んで、「AIの仕組み」を学ぶと急に伸びる。

僕が普段ブログで「LLMの仕組み」「ハーネス」「コンテキスト」みたいな地味な話を書いてるのは、ここに直結してる。

プロンプトの巧拙は、料理のテクニックの差じゃなくて、素材と火の理解度の差に近い。

表面的なプロンプト技術 その裏にあるAI基礎知識
「ステップバイステップで考えて」と書く LLMは次のトークンしか予測できない。中間を吐き出させると精度が上がる構造
役割(”あなたは○○の専門家”)を与える 文脈に応じて活性化されるパターンの分布が変わる
「最後に出力する前に検算して」と書く 自己検証フェーズを推論ループに組み込む発想
ハズレが続いたら別モデルに切り替える GPT/Claude/Gemini の得意領域が違う(タオもNatureインタビューで「ChatGPTは厳密、Geminiは図解、Claudeは対話的」と評してる)
エラー出力をそのまま貼って「直して」と書く LLMはエラーログそのものを文脈として読める

プロンプトのテンプレを300個暗記しても、新しいモデルが出るたびに振り出しに戻る。でも「LLMはどう動くか」を一度押さえると、テンプレに頼らずその場でプロンプトを設計できるようになる。

プライスがやってたのも、まさにそれ。彼は数学の専門家じゃないけど、AIとの対話を何百ターンも繰り返してる。バレトと2人で、問題を投げて、出力を見て、また問い直す——AI研究者がそれを見て「vibe mathing(ヴァイブ・マシング)」って名付けて、ChatGPT Pro を贈ったほどだ(Scientific American)。


FROM VibeCoding Tailor · 毎週月曜日
忙しくても5分で読める
今週のAI動向
毎週月曜配信のニュースレター。テイラーが選んだAIニュース TOP 3 · ベンチマーク順位 · 急上昇キーワード · 判断基準ボーナス。広告なしのクリーンメディアです。

無料で受け取る →

先着100名 永久無料 · いつでも解除

AIが普及するほど、格差は縮まらない——むしろ広がる

ひとこと要約: 蒸気機関も電気もインターネットも、普及するほど技術格差は縮まったけど「使いこなしの格差」は広がった。AIは特にその傾向が強い。

ここがこの記事で一番言いたいところ。

「AIが安く・速く・誰にでも届くようになれば、格差は埋まる」——よく聞く話だけど、過去のテクノロジー史はそうなってない。

技術 普及した結果起きたこと
印刷術(15c) 識字率の差が拡大。読める人と読めない人で別世界
電気(19c〜) 配電は均等になったけど、使う側の事業構想力で差が出た
インターネット(90s〜) 接続コストはほぼゼロ。でも「検索が上手い人」の価値は急騰
スマートフォン(10s〜) 全員が同じ端末を持ってるのに、収益化できる人は1%以下
生成AI(20s〜) 同じChatGPTで難題を解く人と、晩ご飯を決める人

普及は道具を平等にする。でも、道具をどう使うかの差は平等にしない。むしろ、誰でも触れるからこそ、活用度の差がそのまま成果の差になっていく。

しかもAIには、過去の技術にない特徴がひとつある——自分から会話を仕掛けてくる。スマホ通知、レコメンド、ChatGPTのプロアクティブ提案。何もせずに使ってると、いつのまにかAIが主導してて、人間が従う構図になっちゃう。

主導される側にいる限り、「AIで何かを成し遂げた」体験は積み上がらない。プライスが積み上げた「ハズレ200回の勘」みたいな資産は、受動側には絶対に貯まらない。

📌 参考

タオはNature取材で「仕事の定義そのものが変わりつつある」と語ってる。AIを使う人と使われる人の差は、職業内格差じゃなくて、職業観そのもののズレに近い。


じゃあ、今日から何をすればいいか——3つだけ

ひとこと要約: プロンプト集を増やすより、AIの構造を一段ずつ知るほうが早い。基礎知識→主導権→検証習慣の順で動く。

格差を意識した今日から、僕が実際にやってみて意味があった3つを書いておく。

① AIの基礎を「料理人レベル」までは知る

「LLMがどう動くか」「コンテキストとは何か」「モデルごとの得意分野」——これは今や教養。当ブログではLLMの仕組みLLM学習でゼロから書いてる。プロンプトのテクニック集を読むより先に、ここを通したほうが伸びは速い。

② プロンプトを「指示」じゃなく「思考の整理」として書く

晩ご飯型の使い方は「AI、決めて」で終わる。プライス型は「AI、ここまで僕は考えた。次に試すべきは何だ」。プロンプトに自分の思考が刻まれてるかでチェックできる。書きながら自分が賢くなるプロンプトが正解。

③ AIの出力を必ず一度疑う習慣を持つ

リヒトマンは「生原稿は粗かった」って言った。あれは難問だからじゃなくて、LLMの本質。出力をそのまま使わずに、核アイデアだけ抜いて自分で書き直す——この一手があるかないかで、半年後のスキルが変わる。


よくある質問(FAQ)

Q. プロンプト集を覚えれば、自分も難問を解けるようになりますか?

A. なりません。プロンプト集は「過去のレシピ」で、AIモデルが変わると陳腐化します。プライスは特定のテンプレを使ったわけじゃなく、AIとの対話量で勘を育てた人です。先に「AIがどう動くか」を学ぶほうが早道です。

Q. 今日の晩ご飯をChatGPTに聞くのは悪いことですか?

A. 悪いことじゃないです。問題は、その使い方しかしてないかどうか。決定を委ねるだけの使い方を続けると、AIに主導される側に固定されます。週に1度でいいので「自分の思考をAIに整理させる」使い方を混ぜてみてください。

Q. GPT-5.4 Pro じゃないと、こういう成果は出ませんか?

A. 道具の差はもちろんあります。でもプライス本人は2025年末から無料版ChatGPTで遊んでて、後にAI研究者からPro契約を贈られています(Scientific American)。最初から最高ランクが必要だったわけじゃなく、使い込み量のほうが先行してます。

Q. ChatGPT Pro って月20ドルですよね?

A. それは ChatGPT Plus の方です。混同しやすいので注意。OpenAIの2026年4月時点の構成は
・Plus: 月20ドル(ライト用途、GPT-5.4 にアクセス可)
・Pro $100: 月100ドル(Plus の5倍使える、GPT-5.4 Pro にアクセス可)
・Pro $200: 月200ドル(Plus の20倍、GPT-5.4 Pro 無制限+専用GPUスライス)
プライスが使ったのは Pro のほうで、これは 月200ドル。報道で「月20ドルのPro」と書かれていることがありますが、それは Plus との取り違えで、GPT-5.4 Pro 無制限利用が前提なら200ドル枠です。

Q. 自分は文系で数学が苦手ですが、それでも基礎知識は必要ですか?

A. むしろ文系の方が必要です。プライスも数学の専門家じゃありません。彼が持ってたのは数学の知識じゃなく、AIとの対話の勘です。文系・理系の話じゃなく、AIを主語にできる側に立てるかという話です。

Q. 子どもにはどう教えればいいですか?

A. 「AIに何を聞くか」じゃなく、「AIの答えのどこを疑うか」を一緒に練習するのが効きます。出力を読み比べさせて、「ここおかしくない?」と自分で言わせる時間を作ってあげてください。


核心3つのまとめ

  1. 道具は同じでも、主語の向きで結果は天文学的に変わる——AIに仕事をさせてるのか、AIに動きを決められてるのか。
  2. 「プロンプト一発」の前提は、ハズレを200回見てきた経験——当たりだと気づける目は、頻度と検証の中で育つ。
  3. 学問教育は不要にならない。形が変わる——AIが出した粗い原稿を「価値ある成果」に磨ける人材が、次の時代の専門家になる。

道具が同じだからこそ、これからの数年で、人と人の間にとんでもない差が開く。

その差はどっち側に出るか——晩ご飯を決められる側か、難問を解く側か——は、今日からの数十分の使い方で決まる。


ソースリスト


著者: VibeCoding Tailor(高麗大学 工学部生 · Lovable 公式アンバサダー。高麗大キャンパスタウン創業コンテスト優秀賞で学内創業オフィスに入居、いまは開発に集中中。「自分が IT·AI を学んで詰まった地点は、誰もが詰まる地点」という仮定で、その詰まりを一つずつ深く掘り下げ、「やさしく・深く・面白く」を実現する。このブログは AI 時代の標準を作るために始めたメディアです。) 運営: テイラーの隠れ家(shuntailor.net) 最終更新: 2026-04-29

バイブコーディング テイラー
バイブコーディング テイラー
AIの仕組みとビジネス応用を日本語・韓国語で記録。毎週月曜、ニュースレター配信中。
ニュースレターを購読する →

コメント

JAKO