같은 ChatGPT인데 누군 60년 난제를 풀고, 누군 저녁 메뉴를 정한다 — AI 격차는 지금부터 진짜 벌어진다

같은 ChatGPT인데 누군 60년 난제를 풀고, 누군 저녁 메뉴를 정한다 — AI 격차는 지금부터 진짜 벌어진다

📖 7분 정독 · 태일러 노트

이 글에서 배우는 것 3가지

  • ① 같은 GPT-5.4 Pro로 60년 난제를 푼 사람과, 저녁 메뉴를 정한 사람을 가른 한 줄
  • ② “프롬프트 한 방”이라는 헤드라인 뒤에 숨은 진짜 전제 조건
  • ③ AI가 보급될수록 격차가 좁혀지지 않고, 오히려 벌어지는 이유

AI 격차” 라는 말, 몇 년째 슬슬 들리고 있죠.

근데 진짜로 무섭다고 느낀 건 이번 주, 어떤 뉴스를 읽었을 때였어요.

수학을 정규로 배운 적 없는 23살 청년이, 월 200달러짜리 ChatGPT Pro 구독 하나로 60년간 못 풀었던 수학 난제를 끝내버렸어요. 같은 날, 지구상 수억 명은 똑같은 ChatGPT한테 “오늘 저녁 뭐 먹지” 를 묻고 있었고요.

도구 같죠. 가격도 같고요. 다른 건 단 하나, AI한테 일을 시키는 사람AI한테 행동을 정해 받는 사람의 차이. 이게 2026년 4월의 현실이고, 이 차이는 내년에 좁혀지지 않아요. 오히려 더 벌어지죠.

오늘은 이걸, Scientific American이 보도한 60년 난제 사건에서 출발해서 좀 현장 감각으로 풀어 볼게요.


60년 안 풀렸던 문제가, 어느 월요일 오후에 끝났다

한 줄 요약: 23살 아마추어가 ChatGPT Pro에 문제를 던진 지 약 80분. 전문가 60년의 벽이 단 한 번의 응답으로 무너졌다.

주인공은 리암 프라이스(Liam Price). 23살. 고급 수학 교육은 받은 적 없어요.

먼저 짚어 둘 게 있어요. “ChatGPT Pro”는 ChatGPT Plus와 다른 플랜이에요. OpenAI 2026년 4월 기준으로 Plus는 월 20달러, Pro는 월 200달러(중간에 5배 쓸 수 있는 $100 Pro도 있음). 최상위 모델 GPT-5.4 Pro에 무제한으로 접근하려면 월 200달러짜리 Pro 플랜이 필요해요. 프라이스도 처음엔 무료 ChatGPT로 놀고 있었는데, 어느 AI 연구자가 프라이스와 파트너 바레토한테 Pro 구독을 선물해 줬어요. 그렇게 GPT-5.4 Pro가 손에 들어온 거죠(Scientific American). 월 200달러는 개인이 일상으로 쓰기엔 부담스러운 금액이고, 이게 이미 “AI 격차”의 한 축이 되어 있어요.

어느 한가한 월요일 오후, 그는 에르되시 미해결 문제 모음 사이트 erdosproblems.com 에서 1196번 문제를 하나 골라서 ChatGPT Pro 최신 모델 “GPT-5.4 Pro”에 그대로 붙여 넣었어요.

“문제가 뭘 묻는지도 몰랐어. 그냥 평소처럼 에르되시 문제를 AI에 던져 보고 있었을 뿐이야.” (프라이스, Scientific American)

돌아온 건 약 80분 추론 끝의 한 번의 응답. 프라이스는 이 출력을 케임브리지대학교 수학과 2학년 케빈 바레토(Kevin Barreto) 한테 보냈어요.

바레토가 뭔가 다르다는 걸 알아챘고, 현존 최고 수학자로 불리는 테렌스 타오(Terence Tao, UCLA, 필즈상)와 박사 논문에서 이 문제군을 다뤘던 자레드 리히트만(Jared Lichtman, 스탠퍼드)한테 연락을 돌렸죠.

타오는 이렇게 말했어요.

“이 문제에 도전한 사람들은 첫 한 수에서 다들 살짝 어긋난 방향으로 나아가 있었다. 일종의 사고의 잠금 장치가 걸려 있었던 셈이다.” (Scientific American)

GPT-5.4 Pro가 쓴 도구는 정수론의 다른 영역에선 90년 전부터 알려진 마르코프 체인과 폰 망골트(von Mangoldt) 가중치의 결합. 새 도구가 아니에요. 단지 원시 집합 문제에는 아무도 그걸 적용한 적이 없었을 뿐이에요.

문제 1196번은 이후 Lean으로 형식 검증돼서 사이트에 “PROVED (LEAN)” 상태가 붙어 있어요(erdosproblems.com 공식).


그래서 이 문제, 도대체 뭘 묻고 있던 거예요? — “원시 집합”과 “에르되시 합”

한 줄 요약: 1196번 문제는 1968년에 제시된 추측. “소수처럼 서로 나눠지지 않는 집합의 점수”가, 수를 무한히 키워 가면 어디로 수렴하느냐 — 이런 생각보다 단순한 질문이었다.

뉴스 헤드라인은 “60년 난제”, “수학 난제” 같은 단어로 뭉뚱그려 끝나기 쉬운데, 모처럼이니까 이 문제가 정확히 뭘 묻고 있었는지 짚고 갈게요. 이걸 알면 AI의 돌파가 얼마나 의외였는지도 훨씬 와닿아요.

원시 집합(primitive set)이란

정수 1, 2, 3, … 중에서 어떤 조건을 만족하는 집합을 고르는 이야기예요.

집합 안의 어느 두 수를 골라도, 한쪽이 다른 한쪽을 나누지 못하는 — 이런 정수 집합을 “원시 집합” 이라고 불러요.

예시:

  • {2, 3, 5, 7, 11, ...} (모든 소수) → 원시 집합 (소수끼리는 서로를 나누지 않음)
  • {6, 10, 15} → 원시 집합 (셋 다 서로를 나누지 않음)
  • {4, 8} → ❌ (4가 8을 나눔)

소수는 “자기 자신 외에 나눠지지 않는 수”인데, 에르되시는 이 “나눠지지 않는다”는 성질을 집합으로 확장했어요. 이게 원시 집합(primitive set).

에르되시 합(Erdős sum)이란

에르되시는 원시 집합 A 에 대해 다음 값을 “점수”로 정의했어요.

S(A) = Σ ( 1 / (a × log a) ) ※ a ∈ A

집합에 들어 있는 수 a 마다 1 / (a × log a) 를 계산해서 전부 더한 값.

이 점수 S(A) 가 —

무엇이? 결과
상한의 최댓값 리히트만(스탠퍼드)이 2022년 박사 논문에서 소수 집합일 때 최대 ≈ 1.399 라고 증명
수를 점점 키우면 어떻게 되는가? 에르되시·사르코지·세메레디(1968)가 “1로 수렴한다“고 추측 ⇐ 이게 60년간 안 풀렸음

즉 “**수 a 를 무한히 키워 갈 때, 에르되시 합은 정말 1에 가까워지는가?**” — 이게 1196번 문제의 본체예요.

왜 60년간 안 풀렸을까

리히트만 본인도 이 문제에 도전했지만 못 뚫었어요. 타오의 분석에 따르면, 이 문제에 도전한 연구자는 거의 다 같은 첫 한 수에서 출발해서 같은 막다른 골목에 들어가 있었어요.

“첫 한 수에서 다들 살짝 어긋난 방향으로 나아가 있었다. 일종의 사고의 잠금 장치가 걸려 있었다.” (타오, Scientific American)

여기서 GPT-5.4 Pro 가 한 일은, 마르코프 체인 + 폰 망골트(von Mangoldt) 가중치 라는, 정수론의 다른 영역에선 90년 전부터 알려진 도구를 가져온 거였어요. 새 수학을 발명한 게 아니에요. 단지 아무도 이 문제에 이 도구를 들고 오지 않았을 뿐.

비유하자면, 60년 동안 세계 등반가들이 같은 정면 루트로 산을 공격해서 전부 후퇴했어요. 어느 날, 등반 경험 없는 아마추어가 산에 들어가서 AI한테 “어디서 오를 수 있어?” 라고 물었더니, AI가 측면에서 오를 수 있음을 보여 줬다 — 그런 사건에 가까워요. 측면 자체는 옛날부터 알려져 있었고, 누구도 거기를 안 시도했을 뿐.

타오는 결과를 짧게 이렇게 정리했어요.

큰 수와 그 구조에 대해 새로운 사고 방식이 발견됐다. 좋은 성과다. 장기적 의의는 아직 판단 중.” (타오, Scientific American)

“마르코프 체인 + von Mangoldt” 세트는 1196번뿐 아니라, 비슷한 구조의 다른 에르되시 문제들에도 적용될 가능성이 있다고 타오와 리히트만은 시사하고 있어요.

💡 이 사건의 특이점

AI가 푼 건 “새 도구로 처음 풀린 문제“가 아니에요. 옛날 도구로도 풀 수 있었는데 아무도 시도 안 한 문제였어요. AI의 강점은 “사람이 무심코 빼먹은 연결”을 맞출 수 있다는 점 — 이게 이 사건 핵심 중 하나예요.


그런데 같은 날, 같은 ChatGPT에선 이런 대화도 일어나고 있었어요

한 줄 요약: 프라이스가 60년 난제를 끝낸 그 날, 수백만 명이 같은 ChatGPT에 “메뉴”, “날씨”, “남자친구한테 답장 어떻게 해” 를 떠넘기고 있었다.

이건 비꼬는 게 아니라 그냥 통계 사실이에요.

OpenAI의 2025년 공개 자료 기준 ChatGPT 주간 활성 사용자는 7억 명을 넘어요. 그중 절대 다수는 수학자가 아니에요.

내 주변에서도 ChatGPT 사용 패턴은 크게 셋으로 갈려요.

유형 전형적인 프롬프트 출력에 대한 태도
A. 도구로 부리는 사람 “이 설계, A안과 B안 사이에서 고민. 전제는 X와 Y. 판단 기준 5가지로 정리해 줘” 출력을 초안으로 본다
B. 검색 대용으로 쓰는 사람 “○○이란?” “△△ 사용법은?” 출력을 그대로 믿는다
C. 결정을 떠넘기는 사람 “오늘 저녁 뭐 먹지?” “남친한테 어떻게 답장해?” 출력대로 움직인다

프라이스는 전형적인 A. 그는 “정답”을 요구하지 않아요. AI가 무엇을 내놓는지를 관찰하고, 흥미로운 갈래만 따라갔죠. 평소부터 수도 없이 던지고, 헛스윙도 엄청 봐 왔어요. 그래서 진짜가 왔을 때 진짜인 줄 알아봤죠.

C는 정반대. ChatGPT가 “까르보나라가 좋아요” 라고 하면 정말로 까르보나라를 만들어요. 결정은 AI가 하고, 인간은 그대로 몸을 움직이는 거죠.

도구 같아요. 근데 주어가 뒤집혀 있어요.

💡 여기가 핵심

AI 격차의 본질은 “AI를 쓸 줄 아느냐”가 아니에요.
AI한테 일을 시키느냐, AI한테 행동을 정해 받느냐 — 주어의 방향 차이예요.


“프롬프트 한 방으로 풀렸다”는 절반만 사실이에요

한 줄 요약: 프라이스가 던진 그 “한 방” 뒤엔 가려내는 눈, 검증하는 습관, 되묻는 기술이 있다. 운으로 생긴 게 아니다.

뉴스 헤드라인은 어쩔 수 없이 “프롬프트 한 방에 60년 난제 풀렸다” 가 되죠. 임팩트 때문에요.

근데 Scientific American 본문을 정독해 보면, 그 “한 방” 앞뒤에 여러 공정이 보여요.

  1. 문제 선별: 프라이스와 바레토는 erdosproblems.com 에서 무작위로 문제를 골라 무료 ChatGPT에 던져 보는 놀이를 “2025년 말부터” 해 왔어요. 당연히 대부분은 헛스윙.
  2. 알아보는 눈: 이번에도 프라이스는 문제의 의미를 완전히는 몰랐어요. 그래도 “이건 진짜 같다”고 느낀 감각은, 수백 번 헛스윙을 본 끝에 생긴 거죠.
  3. 전문가 파트너: 프라이스가 혼자 판정하지 않았어요. 바레토에게 보내고, 바레토가 타오와 리히트만한테 연결했어요.
  4. “원본은 거칠었다”: 리히트만이 직접 한 말 — “ChatGPT가 출력한 증명의 생원본은 솔직히 꽤 거칠었다. 전문가가 풀어헤치며 무엇을 말하려는지 이해해야 했다.
  5. 재작성: 타오와 리히트만이 며칠에 걸쳐 AI의 핵심 아이디어만 뽑아내, 더 짧고 깔끔한 증명으로 다시 썼어요.

즉 실제는 “프롬프트 한 방”이 아니에요. AI에 묻기를 멈추지 않는 습관, AI 출력에서 핵을 뽑아내는 눈, 그리고 그걸 검증해 주는 전문가 네트워크 — 이 세 가지가 깔린 자리에 마침 한 번에 핵 아이디어가 나왔을 뿐이죠.

“프롬프트 한 방”은 헤드라인으론 정확하지만, 현실의 전제 조건으로 읽으면 위험한 압축이에요. 거기서 잘못 읽으면 “어쨌든 던지면 풀리는 거 아냐?” 하다가 200번 헛스윙 끝에 AI 자체를 그만두게 돼요.


오해하지 마세요 — “학교 수학, 이제 필요 없다”가 아니에요

한 줄 요약: 프라이스가 의지한 상대는 케임브리지대 수학과 학부 2학년이었다. 학문 교육이 필요 없어진다는 게 아니라, 학문 교육의 모습이 달라질 것이라는 얘기.

이 사건, 잘 읽어 보면 가장 중요한 디테일은 여기에 있어요 — 프라이스가 ChatGPT 출력을 처음 보낸 상대는 케임브리지대학교 수학과 2학년 케빈 바레토 였어요.

“정규 수학 교육 없이 23살이 AI 혼자 60년 난제를 끝냈다” — 이 헤드라인만 떼면, “그럼 이제 수학 같은 거 안 배워도 되겠네” 라고 읽고 싶어지죠.

근데 Scientific American 본문을 차분히 따라가 보면, 그렇게 되지가 않아요.

  • 프라이스 본인은 문제의 의미를 정확히 이해하지 못했고
  • “이건 아마 진짜다” 라고 판정한 건 바레토 (수학과 학생) 였고
  • 그 바레토가 타오(필즈상)와 리히트만(스탠퍼드) 에게 연결했고
  • 출력 생원본은 거칠었기 때문에 전문가가 다시 썼고
  • 최종 증명은 Lean으로 형식 검증 됐어요(erdosproblems.com 공식)

즉 이번 돌파는 (수학 모르는 일반인 × AI) 단독이 아니라, (일반인 × AI) + 수학 전문가 의 협업으로 성립한 거예요. 전문가가 없었으면 출력은 영원히 “거친 원고”인 채로, 난제 돌파도 안 됐겠죠.

여기서 말할 수 있는 건 “학문 교육은 필요 없다”가 아니라, “학문 교육의 모습이 달라질 것이다” 예요.

지금까지 앞으로 (이렇게 변해 갈 듯)
계산 드릴·공식 암기 비중이 높음 AI가 대신 해 주는 영역. 비중은 내려간다
수식을 한 글자씩 손으로 써서 이해 AI 출력을 읽어 내는 정밀도가 핵심
시험에서 “스스로 풀 수 있는가”가 평가 축 “AI가 낸 답을 의심하고, 고칠 수 있는가” 가 평가 축이 됨
전문가 = 논문을 끝없이 양산하는 사람 전문가 = AI의 거친 원고를 가치 있는 성과로 다듬을 수 있는 사람

타오가 Nature 인터뷰에서 “직업의 정의가 바뀌고 있다” 라고 한 건 정확히 이런 뜻이에요(Nature, 2026-04-27). 수학자가 사라지는 게 아니라, 수학자가 “하는 일”이 바뀌는 거. 교육도 그 영향을 그대로 받게 되죠.

학교 수학·과학·국어가 필요 없어지는 게 아니에요. 다만 앞으로는 “AI 출력을 판정할 수 있는 머리”를 키우는 교육이 코어가 되어 갈 거예요 — 적어도 무게중심이 그쪽으로 옮겨 갈 듯해요. 프라이스의 감각과 바레토의 기초 학력이 합쳐져서 비로소 사건이 성립했다는 디테일은, 교육론으로도 꽤 무거운 시사점이 있어요.


왜 프롬프트 학습은 결국 “AI 기초 지식”으로 수렴할까

한 줄 요약: 프롬프트 잘 쓰는 능력은 글솜씨 차이가 아니다. AI가 어떻게 움직이는지에 대한 이해도 차이다. 그래서 “프롬프트 모음집”으론 멈추고, “AI 작동 원리”를 배우면 갑자기 뚫린다.

내가 이 블로그에서 굳이 “LLM 작동 원리”, “하네스”, “컨텍스트” 같은 좀 지루한 이야기를 계속 쓰는 이유가 여기에 있어요.

프롬프트의 잘하고 못하고는, 요리 테크닉의 차이가 아니라 재료와 불에 대한 이해도 의 차이에 가까워요.

표면적인 프롬프트 기술 그 뒤에 깔린 AI 기초 지식
“단계별로 생각해 줘”라고 쓴다 LLM은 다음 토큰밖에 예측하지 못한다. 중간 사고를 출력시키면 정확도가 오르는 구조다
역할(“당신은 ○○ 전문가”)을 부여한다 문맥에 따라 활성화되는 패턴 분포가 달라진다
“최종 답변 전에 검산해 줘”라고 쓴다 자기 검증 단계를 추론 루프에 끼워 넣는 발상
헛스윙이 길어지면 다른 모델로 바꾼다 GPT/Claude/Gemini 강점이 다르다 (타오가 Nature 인터뷰 에서 “ChatGPT는 엄밀, Gemini는 시각화, Claude는 대화적”으로 평가)
에러 로그를 그대로 붙여넣고 “고쳐 줘” 라고 쓴다 LLM은 에러 자체를 문맥으로 읽을 수 있다

프롬프트 템플릿 300개를 외워 봤자, 새 모델이 나올 때마다 처음부터 다시 시작해야 해요. 반대로 “LLM이 어떻게 움직이는지”를 한 번 잡아 두면, 템플릿에 의존하지 않고 그 자리에서 프롬프트를 설계 할 수 있게 돼요.

프라이스가 한 게 정확히 그거예요. 그는 수학 전문가가 아니지만, AI와의 대화는 수백 턴 단위로 굴렸어요. 바레토와 둘이서 문제를 던지고, 출력을 보고, 다시 묻고 — 그 모습을 본 AI 연구자가 “vibe mathing(바이브 마싱)” 이라고 이름 붙이고 ChatGPT Pro를 선물해 줬을 정도였어요(Scientific American).


FROM 바이브코딩 태일러 · 매주 월요일
바빠도 5분이면 읽는
이번 주 AI 흐름
태일러가 고른 AI 뉴스 TOP 3 · 벤치마크 순위 · 급상승 키워드 · 판단 기준 보너스. 광고 없는 클린 미디어입니다.

무료로 받아보기 →

선착순 100명 영구 무료 · 언제든 해지

AI가 보급될수록 격차는 좁혀지지 않아요 — 오히려 벌어져요

한 줄 요약: 증기기관도, 전기도, 인터넷도, 보급될수록 기술 격차는 줄었지만 “활용 격차”는 벌어졌다. AI는 그 경향이 특히 강하다.

이게 이 글에서 제일 하고 싶은 말이에요.

“AI가 싸고 빠르고 모두에게 닿으면 격차가 사라질 것이다” — 흔히 듣는 말이지만, 기술 보급의 역사는 이렇게 안 갔어요.

기술 보급 후에 실제로 일어난 것
인쇄술(15c) 책은 흔해졌지만, 읽는 사람과 못 읽는 사람으로 세계가 갈라졌다
전기(19c~) 배전은 평등해졌지만, 그걸로 사업을 일으킨 사람만 폭발했다
인터넷(90s~) 접속 비용은 거의 0. 그러나 “검색 잘하는 사람”의 가치는 급등했다
스마트폰(10s~) 모두가 같은 단말기를 들고 있어도, 수익화하는 사람은 1% 미만
생성 AI(20s~) 같은 ChatGPT로 누군 난제를 풀고, 누군 저녁 메뉴를 정한다

보급은 도구를 평등하게 만들어요. 근데 도구를 어떻게 쓰느냐의 차이는 평등하게 만들지 않아요. 오히려 누구나 닿을 수 있기 때문에, 활용도 차이가 그대로 결과 차이가 돼 버려요.

게다가 AI엔 과거 기술에 없던 특성이 하나 있어요 — 자기가 먼저 말을 걸어 와요. 푸시 알림, 추천 피드, ChatGPT의 프로액티브 제안. 그냥 받아쓰기만 하면, 어느새 AI가 주도하고 인간이 따라가는 구도가 돼 버리죠.

따라가는 쪽에 머무는 한, “AI로 뭔가 해냈다”는 자산은 안 쌓여요. 프라이스가 쌓은 “헛스윙 200번의 감각” 같은 자산은, 수동적 사용자한테는 절대 누적되지 않아요.

📌 참고

타오는 Nature 인터뷰에서 “직업의 정의 자체가 바뀌고 있다” 고 말했어요. AI를 쓰는 사람과 쓰이는 사람의 격차는 직업 안의 격차가 아니라, 직업관 자체의 어긋남에 가까워요.


그래서 오늘부터 뭘 해야 하나 — 3가지만

한 줄 요약: 프롬프트 모음집을 늘리는 것보다 AI 구조를 한 단씩 아는 게 빠르다. 기초 지식 → 주도권 → 검증 습관 순.

격차를 의식한 오늘부터, 내가 실제로 해서 의미 있었던 세 가지를 적어 둘게요.

① AI 기초를 “셰프 수준”까지는 안다

“LLM이 어떻게 움직이는가”, “컨텍스트란 무엇인가”, “모델별 특기” — 이건 이제 교양이에요. 이 블로그에선 LLM 작동 원리LLM 학습 에서 처음부터 풀어 뒀어요. 프롬프트 테크닉 모음집 읽기 전에 여기 한 번 통과하는 게 훨씬 빨라요.

② 프롬프트를 “지시”가 아니라 “사고 정리”로 쓴다

저녁 메뉴형 사용은 “AI, 결정해” 로 끝나요. 프라이스형은 “AI, 여기까지 내가 생각했다. 다음 시도할 건 뭐냐”. 프롬프트에 내 사고가 새겨져 있는가 로 점검할 수 있어요. 쓰면서 내가 똑똑해지는 프롬프트가 정답.

③ AI 출력은 반드시 한 번 의심하는 습관을 만든다

리히트만이 “원본은 거칠었다” 라고 했죠. 그건 어려운 문제라서가 아니라, LLM의 본질이에요. 출력을 그대로 쓰지 말고, 핵심 아이디어만 뽑아 내가 다시 쓴다 — 이 한 단계가 있느냐 없느냐로 반년 뒤 실력이 갈려요.


자주 묻는 질문(FAQ)

Q. 프롬프트 모음집을 외우면 저도 난제를 풀 수 있게 될까요?

A. 안 돼요. 프롬프트 모음집은 “과거 레시피” 라 모델이 바뀌면 같이 낡아요. 프라이스는 특정 템플릿을 쓴 게 아니라, AI와의 대화량으로 감을 키운 사람이에요. 먼저 “AI가 어떻게 움직이는가”를 배우는 게 빠른 길이에요.

Q. 오늘 저녁을 ChatGPT한테 묻는 건 잘못된 사용법인가요?

A. 잘못된 건 아니에요. 문제는 그 사용법 하고 있느냐예요. 결정을 떠넘기는 사용법만 이어 가면 AI한테 끌려다니는 쪽에 고정돼요. 일주일에 한 번이라도 “내 사고를 AI에 정리시키는” 사용법을 섞어 보세요.

Q. GPT-5.4 Pro가 아니면 이런 성과는 안 나오나요?

A. 도구 차이는 있어요. 다만 프라이스 본인은 2025년 말부터 무료 ChatGPT로 놀고 있다가, 나중에 AI 연구자한테서 Pro 구독을 선물 받았어요(Scientific American). 처음부터 최상위 모델이 필요했던 게 아니라, 사용량이 먼저 쌓여 있었어요.

Q. ChatGPT Pro는 월 20달러 아니에요?

A. 그건 ChatGPT Plus 예요. 헷갈리기 쉬워서 정리해 둘게요. OpenAI의 2026년 4월 기준 구성은
· Plus: 월 20달러 (라이트 사용, GPT-5.4 접근 가능)
· Pro $100: 월 100달러 (Plus의 5배 사용량, GPT-5.4 Pro 접근 가능)
· Pro $200: 월 200달러 (Plus의 20배, GPT-5.4 Pro 무제한 + 전용 GPU 슬라이스)
프라이스가 쓴 건 Pro 쪽이고, 이건 월 200달러예요. 일부 매체에서 “월 20달러짜리 Pro” 라고 쓴 건 Plus와 헷갈린 표기. GPT-5.4 Pro 무제한이 전제라면 200달러 플랜이에요.

Q. 저는 문과라서 수학이 약한데, 그래도 기초 지식이 필요한가요?

A. 오히려 문과일수록 필요해요. 프라이스도 수학 전문가가 아니에요. 그가 가진 건 수학 지식이 아니라 AI와의 대화 감각이에요. 문이과 이야기가 아니라, AI를 주어로 삼을 수 있는 쪽에 설 수 있느냐의 이야기예요.

Q. 아이한테는 어떻게 가르쳐야 하나요?

A. “AI한테 무엇을 물어봐”가 아니라, “AI 답의 어디가 의심스러운가”를 같이 연습하는 게 잘 들어요. 출력을 같이 비교해 보고, 아이 입으로 “여기 이상하지 않아?” 라고 말하게 하는 시간을 만들어 주세요.


핵심 3가지 정리

  1. 도구가 같아도 주어 방향이 결과를 천문학적으로 가른다 — AI한테 일을 시키느냐, AI한테 행동을 정해 받느냐.
  2. “프롬프트 한 방”의 전제는 헛스윙 200번의 누적이다 — 진짜인지 알아보는 눈은 빈도와 검증 안에서 자란다.
  3. 학문 교육은 필요 없어지지 않는다. 모습이 달라질 것이다 — AI가 낸 거친 원고를 “가치 있는 성과”로 다듬을 수 있는 사람이 다음 시대의 전문가가 된다.

도구가 같기에, 앞으로 몇 년 사이 사람과 사람 사이엔 어처구니없는 격차가 벌어져요.

그 격차의 어느 쪽에 설지 — 저녁 메뉴를 정해 받는 쪽일지, 난제를 푸는 쪽일지 — 는 오늘부터의 수십 분이 결정해요.


소스 리스트


저자: VibeCoding Tailor (고려대 공대생 · Lovable 공식 앰버서더. 고려대 캠퍼스타운 창업 경진대회 우수상으로 교내 창업사무실에 입주, 지금은 개발에 집중 중. 내가 IT·AI를 공부하며 막힌 지점은 모두가 막힐 지점이라는 가정으로, 그 막힘을 하나씩 깊이 파헤쳐 「쉽깊잼(쉽고·깊고·재미있게)」을 실현한다. 이 블로그는 AI 시대의 표준을 만들기 위해 시작한 미디어다.) 운영: 테이라의 은신처 (shuntailor.net) 최종 업데이트: 2026-04-29

바이브코딩 태일러
바이브코딩 태일러
AI의 작동 원리와 비즈니스 적용을 일본어·한국어로 기록합니다. 매주 월요일 뉴스레터 발행 중.
뉴스레터 구독하기 →

댓글

JAKO