LLM학습 — 가중치 80억 개는 누가 정했나, 산 내려가기의 직관
가중치 80억 개는 사람이 정하지 않는다. 데이터가 정한다. 학습이라는 산 내려가기를 직관으로 끝까지 따라가며, 왜 AI 학습이 도시 하나의 전기를 먹는지까지 도달하는 LLM 이론 집중코스 2편.
자연어로 세계를 설계하다|Vibe Coding 미디어
가중치 80억 개는 사람이 정하지 않는다. 데이터가 정한다. 학습이라는 산 내려가기를 직관으로 끝까지 따라가며, 왜 AI 학습이 도시 하나의 전기를 먹는지까지 도달하는 LLM 이론 집중코스 2편.
Ollama에서 시작해 LLM 본체까지 궁금해진 분들께. 가중치·벡터·토큰·임베딩의 정체를 직관으로 끝까지 파헤치는 LLM 이론 집중코스 1편.
📍 AI 공부 지도 — 29/29편 이 글은 AI의 기초부터 Meta-Harness·응용 비교까지 순서대로 읽는 29편 시리즈의 29편입니다.📚 전체 지도 보기 ← 이전 편: P5. 오픈 3강 Llama·Qwen·DeepSeek 📚 이 글을 읽기 전에: 22편 + P1~P5 (특히 F7 파라미터·P2 API 호출·P3 오픈 vs 클라우드) 가 핵심. ·LM Studio ― 로컬에서 LLM 돌리는 기술 스택 “API를 호출하는 … Read more
📍 AI 공부 지도 — 28/29편 이 글은 AI의 기초부터 Meta-Harness·응용 비교까지 순서대로 읽는 29편 시리즈의 28편입니다.📚 전체 지도 보기 ← 이전 편: P4. 클로즈드 4사 비교 · 다음 편: P6. Ollama·LM Studio 로컬 → 📚 이 글을 읽기 전에: 22편 + P1~P4를 읽으셨다면 OK. 특히 F7 파라미터·F2 Transformer가 핵심. Llama·· ― 오픈소스 3강의 기술 … Read more
📍 AI 공부 지도 — 27/29편 이 글은 AI의 기초부터 Meta-Harness·응용 비교까지 순서대로 읽는 29편 시리즈의 27편입니다.📚 전체 지도 보기 ← 이전 편: P3. 오픈 vs 클라우드 LLM · 다음 편: P5. 오픈 3강 Llama·Qwen·DeepSeek → 📚 이 글을 읽기 전에: P 시리즈는 22편 시리즈와 P1(Claude family)을 읽으신 독자 가정. 특히 F1 LLM·F2 Transformer·B1 Agent … Read more
📍 AI 공부 지도 — 26/29편 이 글은 AI의 기초부터 Meta-Harness·응용 비교까지 순서대로 읽는 29편 시리즈의 26편입니다.📚 전체 지도 보기 ← 이전 편: P2. API로 LLM 호출 · 다음 편: P4. 클로즈드 4사 비교 → 📚 이 글을 읽기 전에: 22편 시리즈 + P1·P2를 읽으신 분을 가정합니다. 특히 F7 파라미터·F1 LLM이 토대입니다. 오픈소스 LLM vs … Read more
📍 AI 공부 지도 — 25/29편 이 글은 AI의 기초부터 Meta-Harness·응용 비교까지 순서대로 읽는 29편 시리즈의 25편입니다.📚 전체 지도 보기 ← 이전 편: P1. Claude 4.7 업그레이드 메커니즘 · 다음 편: P3. 오픈 vs 클라우드 LLM → 📚 이 글을 읽기 전에: 22편 시리즈 + P1(Claude family)을 읽으셨다면 OK. 특히 F1 LLM·B2 프롬프트 메커니즘·B1 Agent·M3 … Read more
📍 AI 공부 지도 — 24/29편 이 글은 AI의 기초부터 Meta-Harness·응용 비교까지 순서대로 읽는 29편 시리즈의 24편입니다.📚 전체 지도 보기 ← 이전 편: M10. Meta-Harness 실무 · 다음 편: P2. API로 LLM 호출 → 📚 이 글을 읽기 전에: P 시리즈는 22편 시리즈를 이미 읽으신 독자를 가정합니다. 특히 F1 LLM·F2 Transformer·F6 학습·B2 프롬프트 메커니즘이 핵심. … Read more
📍 AI 공부 지도 — 10/29편 이 글은 AI의 기초부터 Meta-Harness·응용 비교까지 순서대로 읽는 29편 시리즈의 10편입니다.📚 전체 지도 보기 ← 이전 편: F6. 학습이란 무엇인가 · 다음 편: B1. Agent란 무엇인가 → 이 글은 「AI 공부 지도 20부작」의 7편(F7) 입니다. 앞 편: F6 — 모델 학습 gradient descent 다음 편: P1 — AI 모델 … Read more
Claude 1M 토큰, Gemini 2M이라는 헤드라인이 \”AI 기억력 향상\”으로 들리지만 사실 context window·session memory·persistent memory는 완전히 다른 3가지다. Lost in the middle·compaction·Doc-to