AI 공부 지도 — LLM부터 Meta-Harness까지 20편으로 쌓는 법
0-1. 두 가지 입구 — 표 vs 에세이
이 시리즈는 두 가지 방식으로 들어올 수 있어요.
- (A) 표 형식 입구 (이 글) — 20편 전체 구조와 순서를 한눈에. 체크리스트로 따라가는 분.
- (B) 에세이 형식 입구 — 👉 메타 하네스와 오토리서치, 어떤 순서로 배워야 하나 — 왜 이 순서로 배워야 하는지 8단계 흐름을 이야기로 풀어둔 글. 각 단계에서 본편 기사로 점프하는 🔍 링크가 박혀 있음.
둘 중 편한 입구로 들어오시면 됩니다.
0-2. 이 지도가 필요한 이유
AI 공부를 하려고 마음먹은 사람들이 제일 먼저 마주치는 문제는 뭘 얼마나, 어떤 순서로 읽어야 하는지 모른다는 것입니다.
- ChatGPT 뉴스를 보다가 “Transformer”라는 말이 나와서 검색해보니 “attention”이 뭔지부터 알아야 한다고 함
- Attention을 검색하니 “RNN의 한계를 극복” 이라는데 RNN이 뭐였더라…
- 그래서 RNN을 읽다 보니 “gradient vanishing” 이야기가 나옴
- gradient가 뭔지 모르니 역전파 기사를 읽는데 이번엔 loss function부터 나옴
어느 순간 원래 알고 싶었던 ChatGPT 얘기와 멀어져 있습니다.
그래서 결론은 항상 비슷해요.
“어려우니까 나중에…”
이 지도는 그걸 하지 않으려고 만듭니다.
20편을 순서대로 따라가면, LLM이 뭔지도 모르던 사람이 Meta-Harness와 autoresearch라는 연구 흐름까지 자기 말로 설명할 수 있게 되도록 구성했습니다.
새 기술을 따라가는 지도가 아닙니다.
그 새 기술들이 올라타는 기반을 단단히 쌓는 지도입니다.
1. 전체 지도 한눈에
F3 Encoder/Decoder / F4 Attention is All You Need 해설
F5 Embedding / F6 학습이란 무엇인가
B3 Fine-tuning vs RAG vs Prompt
M4 Harness / M5 Evaluation·Optimization / M6 Autoresearch
M7 Meta-Harness / M8 OMX·OMC 위치
M9 “RAG는 죽었냐?” 자기말 / M10 “Meta-Harness 실무” 자기말
2. 섹션별로 왜 이 순서인가
섹션 1: 기초 (7편) — 모델 본체
AI·ML·DL 같은 단어가 뭘 가리키는지부터 구분해야(F0), 그 다음 이야기가 꼬이지 않아요. 그리고 우리가 매일 쓰는 ChatGPT/Claude의 뼈대인 LLM이 뭔지(F1), 그걸 가능하게 한 Transformer 구조(F2·F3·F4)를 본 뒤, 모든 의미 검색의 뿌리인 embedding(F5), 그리고 “학습시킨다”가 실제로 뭘 하는지(F6)까지 가면 모델 본체에 대한 감각이 완성됩니다.
섹션 2: 다리 (3편) — 모델에서 시스템으로
LLM은 엔진일 뿐이고, 우리가 실제로 쓰는 건 그 엔진이 들어간 시스템입니다. 이 시스템이 바로 agent(B1)예요. 그리고 agent와 직접 대화하는 도구인 프롬프트가 왜 작동하는지(B2), 상황에 따라 fine-tuning / RAG / prompt 중 뭘 골라야 하는지(B3)를 익히면 실무로 넘어갈 준비 끝.
섹션 3: 실무 (10편) — 지금 AI 업계에서 진짜 벌어지는 일
여기부터가 2024~2026년 현업에서 실제로 경쟁이 벌어지는 층입니다. retrieval의 4층 구조(M1), 긴 문맥과 기억(M2), 본격 agent(M3), agent의 작업 환경인 harness(M4), 그게 개선되고 있다고 판정하려면 필요한 evaluation(M5). 여기까지 잡고 나면 autoresearch(M6), Meta-Harness(M7), OMX/OMC(M8) 같은 흐름이 처음 나와도 흐리지 않고 읽힙니다. 마지막 두 편(M9·M10)은 유명한 질문 두 개에 회장 본인이 자기 말로 답하는 해설입니다.
3. 3가지 독법 — 당신 상황에 맞는 경로
경로 A: 완전 처음이시면
F0부터 순서대로 M10까지. 20편. 주 1편씩 보면 약 5개월, 주 2편씩 보면 2.5개월 코스입니다.
이 경로가 가장 튼튼해요. 뒤로 갈수록 앞 편이 몸에 배어 있다는 전제가 강해지거든요.
경로 B: LLM 기초는 아시면
이미 ChatGPT/Claude를 매일 쓰고 있고, “LLM이 다음 토큰 예측한다”는 감이 있으시면:
- F4 (Attention)를 살짝 스킵 가능 — 원리보다 구조만 잡으면 OK
- F5·F6(Embedding·학습)는 반드시 — 여기 건너뛰면 M1부터 바로 막힘
- B1~B3 → M1 순서로 들어가세요
경로 C: Meta-Harness만 빨리 잡아야 하시면
위험 경로이지만 가능합니다.
- B1 Agent → M3 Agent 심화 → M4 Harness — 여기까지 필수
- 그 다음 M5 Evaluation 반드시 (이거 없으면 “자기개선 loop”가 왜 착시인지 모름)
- 그 다음 M7 Meta-Harness 와 M10 Meta-Harness 실무 해설
단, 이 경로로 가면 왜 이런 개념이 필요했는지의 뿌리 감각이 약해집니다. M7까지 본 뒤에라도 F1·F4·F5를 거꾸로 읽으시면 이해가 탄탄해져요.
4. 각 편 한 줄 요약
기초 (Foundation)
- F0 AI · ML · DL · LLM 용어 구분하기 — 뉴스에서 섞여 나오는 5가지 단어의 크기와 관계를 러시아 인형 비유로 정리
- F1 LLM이 뭔지 — “자동완성이 끝까지 간 이야기”. 다음 토큰 예측기라는 한 문장을 끝까지 풀어냄
- F2 Transformer 구조 — 책을 펼쳐놓고 형광펜 긋기 비유 하나로 attention·multi-head·stacking까지
- F3 Encoder/Decoder — 왜 요즘 LLM은 decoder-only 구조인가
- F4 Attention is All You Need 해설 — 수식 하나와 도서관 비유로 원 논문을 끝까지 읽어냄
- F5 Embedding — 단어를 숫자로 바꾸는 이유 — “왕 – 남자 + 여자 = 여왕”이 왜 작동하나
- F6 학습이란 무엇인가 — 안개 낀 산에서 내려가는 일이다
다리 (Bridge)
- B1 Agent란 무엇인가 — 엔진과 차의 차이. LLM은 엔진, agent는 차
- B2 프롬프트는 왜 작동하는가 — 확률 분포를 기울이는 기술
- B3 Fine-tuning vs RAG vs Prompt — 언제 무엇을 쓰는지 실무 판단표
실무 (Practice)
- M1 Retrieval Layer 이해 — embedding·RAG·GraphRAG·agentic·Doc-to-LoRA 4층 구조
- M2 Long-context / Memory — 긴 문맥과 메모리 어댑테이션
- M3 Agent 심화 — tool use, state, 반복 시도가 시스템에 들어갈 때
- M4 Harness — agent의 작업 환경. hooks·skills·sandbox·permissions
- M5 Evaluation / Optimization — “좋아졌다”를 뭘로 판정하나
- M6 Autoresearch — persistent trial-and-error loop
- M7 Meta-Harness — 하네스 자체를 optimization 대상으로
- M8 OMX / OMC 실무 레이어 위치 — 철학 vs 실무 대응물
- M9 RAG는 죽었냐? — 자기 말로 답하기
- M10 Meta-Harness는 실무적으로 뭐냐? — 자기 말로 답하기
5. 이 지도를 따라가며 지켜야 할 것 하나
한 편에서 이해가 애매하면 그 편에 멈춰 서세요.
다음 편으로 넘어가도 어차피 그 뒤 편은 앞 편을 조건으로 써요.
막힌 편을 두 번 읽는 게, 다음 편 10개를 대충 읽는 것보다 훨씬 빠릅니다.
각 편 하단에 “지도 위 현재 위치” 블록이 있으니, 거기로 돌아오시면 위치를 잃지 않을 거예요.
6. 어느 순서로 읽고 있는지 잊지 않는 법
- 각 편 상단 배너에 “N/20편”이 표시됩니다
- 각 편 하단 배너에 앞/다음 편 링크 + 이 지도로 돌아오는 링크
- 혼동되면 이 페이지(📚 전체 20편 지도)로 돌아오세요
이 지도는 shuntailor.net의 AI 공부 지도 카테고리에 pinned되어 있어 언제든 다시 찾을 수 있습니다.
FAQ
Q1. 이거 다 읽으면 AI 엔지니어가 되나요?
아니요. 이건 읽는 지도지 만드는 지도가 아닙니다. 다 읽으시면 AI 뉴스·논문·제품 소개를 흐리지 않게 해석하게 됩니다. 실제 agent를 만들려면 코드와 실습이 따로 필요해요. 다만 코드 쓸 때도 “지금 내가 뭘 하고 있나”의 지도가 있어야 삽질이 줄어듭니다. 이 지도가 그 바닥을 깔아주는 역할입니다.
Q2. 주 1편씩 따라가려면 얼마나 걸리나요?
20편이니까 주 1편이면 약 5개월, 주 2편이면 2.5개월. 너무 천천히 가시면 앞 편을 까먹어서 오히려 비효율이에요. 주 2편, 격일 페이스를 기본으로 추천합니다. 각 편이 10,000자 이상이라 진짜 꼼꼼히 보면 한 편에 90분~2시간 듭니다.
Q3. 다 안 읽으면 소용없어요?
경로 B·C처럼 가려 읽는 전략도 명시했어요. 다만 섹션 1 기초를 건너뛰면 뒤로 갈수록 읽기가 급격히 어려워집니다. 최소한 F1(LLM)·F4(Attention 중 앞부분)·F5(Embedding)·F6(학습)·B1(Agent) 다섯 편은 놓치지 마세요. 이 다섯이 있으면 M시리즈 어디로 튀어도 덜 흐립니다.
뉴스레터
이 20편이 하나씩 완성될 때마다, 그리고 매주 월요일에 그 주 AI 업계 정리까지 메일로 보냅니다. 받아보고 싶으면 뉴스레터 회원가입(무료·30초)에서 신청하세요.
📚 전체 지도 보기
처음 방문한 분이 어디부터 읽어야 할지 막막하지 않도록, 22편 전체 순서와 3가지 독법을 한 페이지에 정리했다.
ソースリスト
- 태일러 지식백과사전 — AI 공부 지도 카테고리 (본 시리즈 20편 전체)
- AI 공부 지도 엔트리맵 — 전체 구조 + 3가지 독법
- “Attention Is All You Need” (Vaswani et al., 2017)
- Anthropic · OpenAI · Google 공식 docs
- mathbullet (YouTube) / Jay Alammar “Illustrated Transformer” / 3Blue1Brown 영상 — 쉬운 설명 레퍼런스
著者: 바이브코딩 태일러 (VibeCoding Tailor) — Lovable公式アンバサダー. AI·バイブコーディング専門メディアshuntailor.net運営.
本シリーズ “AI 공부 지도” 20편은 위키 자료와 공식 논문·공식 문서를 근거로 정리한 체계적 학습 커리큘럼입니다.