같은 ChatGPT인데 누군 60년 난제를 풀고, 누군 저녁 메뉴를 정한다 — AI 격차는 지금부터 진짜 벌어진다
📖 7분 정독 · 태일러 노트
이 글에서 배우는 것 3가지
- ① 같은 GPT-5.4 Pro로 60년 난제를 푼 사람과, 저녁 메뉴를 정한 사람을 가른 한 줄
- ② “프롬프트 한 방”이라는 헤드라인 뒤에 숨은 진짜 전제 조건
- ③ AI가 보급될수록 격차가 좁혀지지 않고, 오히려 벌어지는 이유
“AI 격차” 라는 말, 몇 년째 슬슬 들리고 있죠.
근데 진짜로 무섭다고 느낀 건 이번 주, 어떤 뉴스를 읽었을 때였어요.
수학을 정규로 배운 적 없는 23살 청년이, 월 200달러짜리 ChatGPT Pro 구독 하나로 60년간 못 풀었던 수학 난제를 끝내버렸어요. 같은 날, 지구상 수억 명은 똑같은 ChatGPT한테 “오늘 저녁 뭐 먹지” 를 묻고 있었고요.
도구 같죠. 가격도 같고요. 다른 건 단 하나, AI한테 일을 시키는 사람과 AI한테 행동을 정해 받는 사람의 차이. 이게 2026년 4월의 현실이고, 이 차이는 내년에 좁혀지지 않아요. 오히려 더 벌어지죠.
오늘은 이걸, Scientific American이 보도한 60년 난제 사건에서 출발해서 좀 현장 감각으로 풀어 볼게요.
60년 안 풀렸던 문제가, 어느 월요일 오후에 끝났다
한 줄 요약: 23살 아마추어가 ChatGPT Pro에 문제를 던진 지 약 80분. 전문가 60년의 벽이 단 한 번의 응답으로 무너졌다.
주인공은 리암 프라이스(Liam Price). 23살. 고급 수학 교육은 받은 적 없어요.
먼저 짚어 둘 게 있어요. “ChatGPT Pro”는 ChatGPT Plus와 다른 플랜이에요. OpenAI 2026년 4월 기준으로 Plus는 월 20달러, Pro는 월 200달러(중간에 5배 쓸 수 있는 $100 Pro도 있음). 최상위 모델 GPT-5.4 Pro에 무제한으로 접근하려면 월 200달러짜리 Pro 플랜이 필요해요. 프라이스도 처음엔 무료 ChatGPT로 놀고 있었는데, 어느 AI 연구자가 프라이스와 파트너 바레토한테 Pro 구독을 선물해 줬어요. 그렇게 GPT-5.4 Pro가 손에 들어온 거죠(Scientific American). 월 200달러는 개인이 일상으로 쓰기엔 부담스러운 금액이고, 이게 이미 “AI 격차”의 한 축이 되어 있어요.
어느 한가한 월요일 오후, 그는 에르되시 미해결 문제 모음 사이트 erdosproblems.com 에서 1196번 문제를 하나 골라서 ChatGPT Pro 최신 모델 “GPT-5.4 Pro”에 그대로 붙여 넣었어요.
“문제가 뭘 묻는지도 몰랐어. 그냥 평소처럼 에르되시 문제를 AI에 던져 보고 있었을 뿐이야.” (프라이스, Scientific American)
돌아온 건 약 80분 추론 끝의 한 번의 응답. 프라이스는 이 출력을 케임브리지대학교 수학과 2학년 케빈 바레토(Kevin Barreto) 한테 보냈어요.
바레토가 뭔가 다르다는 걸 알아챘고, 현존 최고 수학자로 불리는 테렌스 타오(Terence Tao, UCLA, 필즈상)와 박사 논문에서 이 문제군을 다뤘던 자레드 리히트만(Jared Lichtman, 스탠퍼드)한테 연락을 돌렸죠.
타오는 이렇게 말했어요.
“이 문제에 도전한 사람들은 첫 한 수에서 다들 살짝 어긋난 방향으로 나아가 있었다. 일종의 사고의 잠금 장치가 걸려 있었던 셈이다.” (Scientific American)
GPT-5.4 Pro가 쓴 도구는 정수론의 다른 영역에선 90년 전부터 알려진 마르코프 체인과 폰 망골트(von Mangoldt) 가중치의 결합. 새 도구가 아니에요. 단지 원시 집합 문제에는 아무도 그걸 적용한 적이 없었을 뿐이에요.
문제 1196번은 이후 Lean으로 형식 검증돼서 사이트에 “PROVED (LEAN)” 상태가 붙어 있어요(erdosproblems.com 공식).
그래서 이 문제, 도대체 뭘 묻고 있던 거예요? — “원시 집합”과 “에르되시 합”
한 줄 요약: 1196번 문제는 1968년에 제시된 추측. “소수처럼 서로 나눠지지 않는 집합의 점수”가, 수를 무한히 키워 가면 어디로 수렴하느냐 — 이런 생각보다 단순한 질문이었다.
뉴스 헤드라인은 “60년 난제”, “수학 난제” 같은 단어로 뭉뚱그려 끝나기 쉬운데, 모처럼이니까 이 문제가 정확히 뭘 묻고 있었는지 짚고 갈게요. 이걸 알면 AI의 돌파가 얼마나 의외였는지도 훨씬 와닿아요.
원시 집합(primitive set)이란
정수 1, 2, 3, … 중에서 어떤 조건을 만족하는 집합을 고르는 이야기예요.
집합 안의 어느 두 수를 골라도, 한쪽이 다른 한쪽을 나누지 못하는 — 이런 정수 집합을 “원시 집합” 이라고 불러요.
예시:
{2, 3, 5, 7, 11, ...}(모든 소수) → 원시 집합 (소수끼리는 서로를 나누지 않음){6, 10, 15}→ 원시 집합 (셋 다 서로를 나누지 않음){4, 8}→ ❌ (4가 8을 나눔)
소수는 “자기 자신 외에 나눠지지 않는 수”인데, 에르되시는 이 “나눠지지 않는다”는 성질을 집합으로 확장했어요. 이게 원시 집합(primitive set).
에르되시 합(Erdős sum)이란
에르되시는 원시 집합 A 에 대해 다음 값을 “점수”로 정의했어요.
“ S(A) = Σ ( 1 / (a × log a) ) ※ a ∈ A “
집합에 들어 있는 수 a 마다 1 / (a × log a) 를 계산해서 전부 더한 값.
이 점수 S(A) 가 —
| 무엇이? | 결과 |
|---|---|
| 상한의 최댓값 | 리히트만(스탠퍼드)이 2022년 박사 논문에서 소수 집합일 때 최대 ≈ 1.399 라고 증명 |
| 수를 점점 키우면 어떻게 되는가? | 에르되시·사르코지·세메레디(1968)가 “1로 수렴한다“고 추측 ⇐ 이게 60년간 안 풀렸음 |
즉 “**수 a 를 무한히 키워 갈 때, 에르되시 합은 정말 1에 가까워지는가?**” — 이게 1196번 문제의 본체예요.
왜 60년간 안 풀렸을까
리히트만 본인도 이 문제에 도전했지만 못 뚫었어요. 타오의 분석에 따르면, 이 문제에 도전한 연구자는 거의 다 같은 첫 한 수에서 출발해서 같은 막다른 골목에 들어가 있었어요.
“첫 한 수에서 다들 살짝 어긋난 방향으로 나아가 있었다. 일종의 사고의 잠금 장치가 걸려 있었다.” (타오, Scientific American)
여기서 GPT-5.4 Pro 가 한 일은, 마르코프 체인 + 폰 망골트(von Mangoldt) 가중치 라는, 정수론의 다른 영역에선 90년 전부터 알려진 도구를 가져온 거였어요. 새 수학을 발명한 게 아니에요. 단지 아무도 이 문제에 이 도구를 들고 오지 않았을 뿐.
비유하자면, 60년 동안 세계 등반가들이 같은 정면 루트로 산을 공격해서 전부 후퇴했어요. 어느 날, 등반 경험 없는 아마추어가 산에 들어가서 AI한테 “어디서 오를 수 있어?” 라고 물었더니, AI가 측면에서 오를 수 있음을 보여 줬다 — 그런 사건에 가까워요. 측면 자체는 옛날부터 알려져 있었고, 누구도 거기를 안 시도했을 뿐.
타오는 결과를 짧게 이렇게 정리했어요.
“큰 수와 그 구조에 대해 새로운 사고 방식이 발견됐다. 좋은 성과다. 장기적 의의는 아직 판단 중.” (타오, Scientific American)
“마르코프 체인 + von Mangoldt” 세트는 1196번뿐 아니라, 비슷한 구조의 다른 에르되시 문제들에도 적용될 가능성이 있다고 타오와 리히트만은 시사하고 있어요.
💡 이 사건의 특이점
AI가 푼 건 “새 도구로 처음 풀린 문제“가 아니에요. 옛날 도구로도 풀 수 있었는데 아무도 시도 안 한 문제였어요. AI의 강점은 “사람이 무심코 빼먹은 연결”을 맞출 수 있다는 점 — 이게 이 사건 핵심 중 하나예요.
그런데 같은 날, 같은 ChatGPT에선 이런 대화도 일어나고 있었어요
한 줄 요약: 프라이스가 60년 난제를 끝낸 그 날, 수백만 명이 같은 ChatGPT에 “메뉴”, “날씨”, “남자친구한테 답장 어떻게 해” 를 떠넘기고 있었다.
이건 비꼬는 게 아니라 그냥 통계 사실이에요.
OpenAI의 2025년 공개 자료 기준 ChatGPT 주간 활성 사용자는 7억 명을 넘어요. 그중 절대 다수는 수학자가 아니에요.
내 주변에서도 ChatGPT 사용 패턴은 크게 셋으로 갈려요.
| 유형 | 전형적인 프롬프트 | 출력에 대한 태도 |
|---|---|---|
| A. 도구로 부리는 사람 | “이 설계, A안과 B안 사이에서 고민. 전제는 X와 Y. 판단 기준 5가지로 정리해 줘” | 출력을 초안으로 본다 |
| B. 검색 대용으로 쓰는 사람 | “○○이란?” “△△ 사용법은?” | 출력을 그대로 믿는다 |
| C. 결정을 떠넘기는 사람 | “오늘 저녁 뭐 먹지?” “남친한테 어떻게 답장해?” | 출력대로 움직인다 |
프라이스는 전형적인 A. 그는 “정답”을 요구하지 않아요. AI가 무엇을 내놓는지를 관찰하고, 흥미로운 갈래만 따라갔죠. 평소부터 수도 없이 던지고, 헛스윙도 엄청 봐 왔어요. 그래서 진짜가 왔을 때 진짜인 줄 알아봤죠.
C는 정반대. ChatGPT가 “까르보나라가 좋아요” 라고 하면 정말로 까르보나라를 만들어요. 결정은 AI가 하고, 인간은 그대로 몸을 움직이는 거죠.
도구 같아요. 근데 주어가 뒤집혀 있어요.
💡 여기가 핵심
AI 격차의 본질은 “AI를 쓸 줄 아느냐”가 아니에요.
AI한테 일을 시키느냐, AI한테 행동을 정해 받느냐 — 주어의 방향 차이예요.
“프롬프트 한 방으로 풀렸다”는 절반만 사실이에요
한 줄 요약: 프라이스가 던진 그 “한 방” 뒤엔 가려내는 눈, 검증하는 습관, 되묻는 기술이 있다. 운으로 생긴 게 아니다.
뉴스 헤드라인은 어쩔 수 없이 “프롬프트 한 방에 60년 난제 풀렸다” 가 되죠. 임팩트 때문에요.
근데 Scientific American 본문을 정독해 보면, 그 “한 방” 앞뒤에 여러 공정이 보여요.
- 문제 선별: 프라이스와 바레토는 erdosproblems.com 에서 무작위로 문제를 골라 무료 ChatGPT에 던져 보는 놀이를 “2025년 말부터” 해 왔어요. 당연히 대부분은 헛스윙.
- 알아보는 눈: 이번에도 프라이스는 문제의 의미를 완전히는 몰랐어요. 그래도 “이건 진짜 같다”고 느낀 감각은, 수백 번 헛스윙을 본 끝에 생긴 거죠.
- 전문가 파트너: 프라이스가 혼자 판정하지 않았어요. 바레토에게 보내고, 바레토가 타오와 리히트만한테 연결했어요.
- “원본은 거칠었다”: 리히트만이 직접 한 말 — “ChatGPT가 출력한 증명의 생원본은 솔직히 꽤 거칠었다. 전문가가 풀어헤치며 무엇을 말하려는지 이해해야 했다.“
- 재작성: 타오와 리히트만이 며칠에 걸쳐 AI의 핵심 아이디어만 뽑아내, 더 짧고 깔끔한 증명으로 다시 썼어요.
즉 실제는 “프롬프트 한 방”이 아니에요. AI에 묻기를 멈추지 않는 습관, AI 출력에서 핵을 뽑아내는 눈, 그리고 그걸 검증해 주는 전문가 네트워크 — 이 세 가지가 깔린 자리에 마침 한 번에 핵 아이디어가 나왔을 뿐이죠.
“프롬프트 한 방”은 헤드라인으론 정확하지만, 현실의 전제 조건으로 읽으면 위험한 압축이에요. 거기서 잘못 읽으면 “어쨌든 던지면 풀리는 거 아냐?” 하다가 200번 헛스윙 끝에 AI 자체를 그만두게 돼요.
오해하지 마세요 — “학교 수학, 이제 필요 없다”가 아니에요
한 줄 요약: 프라이스가 의지한 상대는 케임브리지대 수학과 학부 2학년이었다. 학문 교육이 필요 없어진다는 게 아니라, 학문 교육의 모습이 달라질 것이라는 얘기.
이 사건, 잘 읽어 보면 가장 중요한 디테일은 여기에 있어요 — 프라이스가 ChatGPT 출력을 처음 보낸 상대는 케임브리지대학교 수학과 2학년 케빈 바레토 였어요.
“정규 수학 교육 없이 23살이 AI 혼자 60년 난제를 끝냈다” — 이 헤드라인만 떼면, “그럼 이제 수학 같은 거 안 배워도 되겠네” 라고 읽고 싶어지죠.
근데 Scientific American 본문을 차분히 따라가 보면, 그렇게 되지가 않아요.
- 프라이스 본인은 문제의 의미를 정확히 이해하지 못했고
- “이건 아마 진짜다” 라고 판정한 건 바레토 (수학과 학생) 였고
- 그 바레토가 타오(필즈상)와 리히트만(스탠퍼드) 에게 연결했고
- 출력 생원본은 거칠었기 때문에 전문가가 다시 썼고
- 최종 증명은 Lean으로 형식 검증 됐어요(erdosproblems.com 공식)
즉 이번 돌파는 (수학 모르는 일반인 × AI) 단독이 아니라, (일반인 × AI) + 수학 전문가 의 협업으로 성립한 거예요. 전문가가 없었으면 출력은 영원히 “거친 원고”인 채로, 난제 돌파도 안 됐겠죠.
여기서 말할 수 있는 건 “학문 교육은 필요 없다”가 아니라, “학문 교육의 모습이 달라질 것이다” 예요.
| 지금까지 | 앞으로 (이렇게 변해 갈 듯) |
|---|---|
| 계산 드릴·공식 암기 비중이 높음 | AI가 대신 해 주는 영역. 비중은 내려간다 |
| 수식을 한 글자씩 손으로 써서 이해 | AI 출력을 읽어 내는 정밀도가 핵심 |
| 시험에서 “스스로 풀 수 있는가”가 평가 축 | “AI가 낸 답을 의심하고, 고칠 수 있는가” 가 평가 축이 됨 |
| 전문가 = 논문을 끝없이 양산하는 사람 | 전문가 = AI의 거친 원고를 가치 있는 성과로 다듬을 수 있는 사람 |
타오가 Nature 인터뷰에서 “직업의 정의가 바뀌고 있다” 라고 한 건 정확히 이런 뜻이에요(Nature, 2026-04-27). 수학자가 사라지는 게 아니라, 수학자가 “하는 일”이 바뀌는 거. 교육도 그 영향을 그대로 받게 되죠.
학교 수학·과학·국어가 필요 없어지는 게 아니에요. 다만 앞으로는 “AI 출력을 판정할 수 있는 머리”를 키우는 교육이 코어가 되어 갈 거예요 — 적어도 무게중심이 그쪽으로 옮겨 갈 듯해요. 프라이스의 감각과 바레토의 기초 학력이 합쳐져서 비로소 사건이 성립했다는 디테일은, 교육론으로도 꽤 무거운 시사점이 있어요.
왜 프롬프트 학습은 결국 “AI 기초 지식”으로 수렴할까
한 줄 요약: 프롬프트 잘 쓰는 능력은 글솜씨 차이가 아니다. AI가 어떻게 움직이는지에 대한 이해도 차이다. 그래서 “프롬프트 모음집”으론 멈추고, “AI 작동 원리”를 배우면 갑자기 뚫린다.
내가 이 블로그에서 굳이 “LLM 작동 원리”, “하네스”, “컨텍스트” 같은 좀 지루한 이야기를 계속 쓰는 이유가 여기에 있어요.
프롬프트의 잘하고 못하고는, 요리 테크닉의 차이가 아니라 재료와 불에 대한 이해도 의 차이에 가까워요.
| 표면적인 프롬프트 기술 | 그 뒤에 깔린 AI 기초 지식 |
|---|---|
| “단계별로 생각해 줘”라고 쓴다 | LLM은 다음 토큰밖에 예측하지 못한다. 중간 사고를 출력시키면 정확도가 오르는 구조다 |
| 역할(“당신은 ○○ 전문가”)을 부여한다 | 문맥에 따라 활성화되는 패턴 분포가 달라진다 |
| “최종 답변 전에 검산해 줘”라고 쓴다 | 자기 검증 단계를 추론 루프에 끼워 넣는 발상 |
| 헛스윙이 길어지면 다른 모델로 바꾼다 | GPT/Claude/Gemini 강점이 다르다 (타오가 Nature 인터뷰 에서 “ChatGPT는 엄밀, Gemini는 시각화, Claude는 대화적”으로 평가) |
| 에러 로그를 그대로 붙여넣고 “고쳐 줘” 라고 쓴다 | LLM은 에러 자체를 문맥으로 읽을 수 있다 |
프롬프트 템플릿 300개를 외워 봤자, 새 모델이 나올 때마다 처음부터 다시 시작해야 해요. 반대로 “LLM이 어떻게 움직이는지”를 한 번 잡아 두면, 템플릿에 의존하지 않고 그 자리에서 프롬프트를 설계 할 수 있게 돼요.
프라이스가 한 게 정확히 그거예요. 그는 수학 전문가가 아니지만, AI와의 대화는 수백 턴 단위로 굴렸어요. 바레토와 둘이서 문제를 던지고, 출력을 보고, 다시 묻고 — 그 모습을 본 AI 연구자가 “vibe mathing(바이브 마싱)” 이라고 이름 붙이고 ChatGPT Pro를 선물해 줬을 정도였어요(Scientific American).
이번 주 AI 흐름
AI가 보급될수록 격차는 좁혀지지 않아요 — 오히려 벌어져요
한 줄 요약: 증기기관도, 전기도, 인터넷도, 보급될수록 기술 격차는 줄었지만 “활용 격차”는 벌어졌다. AI는 그 경향이 특히 강하다.
이게 이 글에서 제일 하고 싶은 말이에요.
“AI가 싸고 빠르고 모두에게 닿으면 격차가 사라질 것이다” — 흔히 듣는 말이지만, 기술 보급의 역사는 이렇게 안 갔어요.
| 기술 | 보급 후에 실제로 일어난 것 |
|---|---|
| 인쇄술(15c) | 책은 흔해졌지만, 읽는 사람과 못 읽는 사람으로 세계가 갈라졌다 |
| 전기(19c~) | 배전은 평등해졌지만, 그걸로 사업을 일으킨 사람만 폭발했다 |
| 인터넷(90s~) | 접속 비용은 거의 0. 그러나 “검색 잘하는 사람”의 가치는 급등했다 |
| 스마트폰(10s~) | 모두가 같은 단말기를 들고 있어도, 수익화하는 사람은 1% 미만 |
| 생성 AI(20s~) | 같은 ChatGPT로 누군 난제를 풀고, 누군 저녁 메뉴를 정한다 |
보급은 도구를 평등하게 만들어요. 근데 도구를 어떻게 쓰느냐의 차이는 평등하게 만들지 않아요. 오히려 누구나 닿을 수 있기 때문에, 활용도 차이가 그대로 결과 차이가 돼 버려요.
게다가 AI엔 과거 기술에 없던 특성이 하나 있어요 — 자기가 먼저 말을 걸어 와요. 푸시 알림, 추천 피드, ChatGPT의 프로액티브 제안. 그냥 받아쓰기만 하면, 어느새 AI가 주도하고 인간이 따라가는 구도가 돼 버리죠.
따라가는 쪽에 머무는 한, “AI로 뭔가 해냈다”는 자산은 안 쌓여요. 프라이스가 쌓은 “헛스윙 200번의 감각” 같은 자산은, 수동적 사용자한테는 절대 누적되지 않아요.
📌 참고
타오는 Nature 인터뷰에서 “직업의 정의 자체가 바뀌고 있다” 고 말했어요. AI를 쓰는 사람과 쓰이는 사람의 격차는 직업 안의 격차가 아니라, 직업관 자체의 어긋남에 가까워요.
그래서 오늘부터 뭘 해야 하나 — 3가지만
한 줄 요약: 프롬프트 모음집을 늘리는 것보다 AI 구조를 한 단씩 아는 게 빠르다. 기초 지식 → 주도권 → 검증 습관 순.
격차를 의식한 오늘부터, 내가 실제로 해서 의미 있었던 세 가지를 적어 둘게요.
① AI 기초를 “셰프 수준”까지는 안다
“LLM이 어떻게 움직이는가”, “컨텍스트란 무엇인가”, “모델별 특기” — 이건 이제 교양이에요. 이 블로그에선 LLM 작동 원리 와 LLM 학습 에서 처음부터 풀어 뒀어요. 프롬프트 테크닉 모음집 읽기 전에 여기 한 번 통과하는 게 훨씬 빨라요.
② 프롬프트를 “지시”가 아니라 “사고 정리”로 쓴다
저녁 메뉴형 사용은 “AI, 결정해” 로 끝나요. 프라이스형은 “AI, 여기까지 내가 생각했다. 다음 시도할 건 뭐냐”. 프롬프트에 내 사고가 새겨져 있는가 로 점검할 수 있어요. 쓰면서 내가 똑똑해지는 프롬프트가 정답.
③ AI 출력은 반드시 한 번 의심하는 습관을 만든다
리히트만이 “원본은 거칠었다” 라고 했죠. 그건 어려운 문제라서가 아니라, LLM의 본질이에요. 출력을 그대로 쓰지 말고, 핵심 아이디어만 뽑아 내가 다시 쓴다 — 이 한 단계가 있느냐 없느냐로 반년 뒤 실력이 갈려요.
자주 묻는 질문(FAQ)
Q. 프롬프트 모음집을 외우면 저도 난제를 풀 수 있게 될까요?
A. 안 돼요. 프롬프트 모음집은 “과거 레시피” 라 모델이 바뀌면 같이 낡아요. 프라이스는 특정 템플릿을 쓴 게 아니라, AI와의 대화량으로 감을 키운 사람이에요. 먼저 “AI가 어떻게 움직이는가”를 배우는 게 빠른 길이에요.
Q. 오늘 저녁을 ChatGPT한테 묻는 건 잘못된 사용법인가요?
A. 잘못된 건 아니에요. 문제는 그 사용법만 하고 있느냐예요. 결정을 떠넘기는 사용법만 이어 가면 AI한테 끌려다니는 쪽에 고정돼요. 일주일에 한 번이라도 “내 사고를 AI에 정리시키는” 사용법을 섞어 보세요.
Q. GPT-5.4 Pro가 아니면 이런 성과는 안 나오나요?
A. 도구 차이는 있어요. 다만 프라이스 본인은 2025년 말부터 무료 ChatGPT로 놀고 있다가, 나중에 AI 연구자한테서 Pro 구독을 선물 받았어요(Scientific American). 처음부터 최상위 모델이 필요했던 게 아니라, 사용량이 먼저 쌓여 있었어요.
Q. ChatGPT Pro는 월 20달러 아니에요?
A. 그건 ChatGPT Plus 예요. 헷갈리기 쉬워서 정리해 둘게요. OpenAI의 2026년 4월 기준 구성은
· Plus: 월 20달러 (라이트 사용, GPT-5.4 접근 가능)
· Pro $100: 월 100달러 (Plus의 5배 사용량, GPT-5.4 Pro 접근 가능)
· Pro $200: 월 200달러 (Plus의 20배, GPT-5.4 Pro 무제한 + 전용 GPU 슬라이스)
프라이스가 쓴 건 Pro 쪽이고, 이건 월 200달러예요. 일부 매체에서 “월 20달러짜리 Pro” 라고 쓴 건 Plus와 헷갈린 표기. GPT-5.4 Pro 무제한이 전제라면 200달러 플랜이에요.
Q. 저는 문과라서 수학이 약한데, 그래도 기초 지식이 필요한가요?
A. 오히려 문과일수록 필요해요. 프라이스도 수학 전문가가 아니에요. 그가 가진 건 수학 지식이 아니라 AI와의 대화 감각이에요. 문이과 이야기가 아니라, AI를 주어로 삼을 수 있는 쪽에 설 수 있느냐의 이야기예요.
Q. 아이한테는 어떻게 가르쳐야 하나요?
A. “AI한테 무엇을 물어봐”가 아니라, “AI 답의 어디가 의심스러운가”를 같이 연습하는 게 잘 들어요. 출력을 같이 비교해 보고, 아이 입으로 “여기 이상하지 않아?” 라고 말하게 하는 시간을 만들어 주세요.
핵심 3가지 정리
- 도구가 같아도 주어 방향이 결과를 천문학적으로 가른다 — AI한테 일을 시키느냐, AI한테 행동을 정해 받느냐.
- “프롬프트 한 방”의 전제는 헛스윙 200번의 누적이다 — 진짜인지 알아보는 눈은 빈도와 검증 안에서 자란다.
- 학문 교육은 필요 없어지지 않는다. 모습이 달라질 것이다 — AI가 낸 거친 원고를 “가치 있는 성과”로 다듬을 수 있는 사람이 다음 시대의 전문가가 된다.
도구가 같기에, 앞으로 몇 년 사이 사람과 사람 사이엔 어처구니없는 격차가 벌어져요.
그 격차의 어느 쪽에 설지 — 저녁 메뉴를 정해 받는 쪽일지, 난제를 푸는 쪽일지 — 는 오늘부터의 수십 분이 결정해요.
소스 리스트
- Joseph Howlett, “Amateur armed with ChatGPT ‘vibe-maths’ a 60-year-old problem,” Scientific American, 2026-04-24(28일 개정)
- “The job description is changing: mathematician Terence Tao on the rise of AI,” Nature, 2026-04-27
- T. F. Bloom, Erdős Problem #1196 — 공식 페이지(Lean 형식 검증 완료)
- Erdős Problem #1196 — Discussion thread
- 동 사이트 인용 리히트만 선행 연구: [Li23], [GLW24] (problem 1196 페이지에 인용)
저자: VibeCoding Tailor (고려대 공대생 · Lovable 공식 앰버서더. 고려대 캠퍼스타운 창업 경진대회 우수상으로 교내 창업사무실에 입주, 지금은 개발에 집중 중. 내가 IT·AI를 공부하며 막힌 지점은 모두가 막힐 지점이라는 가정으로, 그 막힘을 하나씩 깊이 파헤쳐 「쉽깊잼(쉽고·깊고·재미있게)」을 실현한다. 이 블로그는 AI 시대의 표준을 만들기 위해 시작한 미디어다.) 운영: 테이라의 은신처 (shuntailor.net) 최종 업데이트: 2026-04-29



