LLM (거대 언어 모델)
방대한 텍스트로 훈련되어 입력에 이어 다음 토큰을 예측하는 생성 모델. ChatGPT 와 Claude 의 본체.
1줄 정의
방대한 텍스트로 훈련되어 입력에 이어 다음 토큰을 예측하는 생성 모델. ChatGPT 와 Claude 의 본체.
전체 시스템에서 맡는 역할
LLM 은 Large Language Model 의 약자. “ChatGPT 와 같은 것” 으로 봐도 대체로 맞지만, 엄밀히는 모델 본체 를 가리키는 말이다.
구조의 단순함에 비해, LLM 은 현대 AI 의 핵심 기구로 작동한다. 입력 (프롬프트) 을 받아 다음에 올 토큰 을 하나씩 예측해 돌려준다. 그뿐인 장치지만 방대한 훈련 데이터를 흡수한 결과, 의미가 살아 있는 장문 생성, 코드 생성, 요약, 번역, 추론이 한 모델에서 가능해진다.
LLM 은 시스템 안에서 3개 자리를 취할 수 있다.
- 단독: ChatGPT 처럼 사람과 대화만
- 래퍼: API 경유로 다른 앱에서 호출
- 에이전트의 뇌: agent 루프 제어 안에서 판단 역할
실무에서 만날 때 어느 자리의 LLM 인지 의식하면 설계 판단이 덜 흔들린다.
흔한 오해
- 오해 1: LLM 은 “지식을 갖고 있다” 라고 여겨지기 쉽다.
– 실제로는 훈련 데이터의 통계 분포를 재현할 뿐이고, 학습 컷오프 이후 정보는 모른다. 최신 정보는 RAG 나 검색으로 보완해야 한다.
- 오해 2: 모델 크기가 클수록 항상 좋다, 라고 기대되기 쉽다.
– 실제로 태스크에 비해 과한 대형 모델은 느리고 비쌀 뿐. 용도별로 나눠 쓰는 설계 (Haiku / Sonnet / Opus 같은) 가 현실적.
- 오해 3: LLM 은 결정론적으로 같은 답을 준다, 라고 여겨지기 쉽다.
– 실제로 샘플링 온도나 시드에 따라 흔들린다. 평가 설계도 재현성을 전제로 짜면 깨진다.
이 용어가 중요한 이유
LLM 을 “AI 그 자체” 가 아니라 하나의 모듈 로 볼 수 있게 되면 자사 시스템 안에서의 배치 판단이 생긴다. 이게 T2 로 잡는 이유.
- 사용자 대화의 주연으로 할지, 뒤에 둘지
- 어느 크기·제공자를 쓸지
- 입출력을 뭘로 감쌀지 (harness, RAG, 도구)
“LLM = AI” 에서 멈추면 이런 판단 언어가 안 나온다.
이 용어가 나오는 기사
- AI 전반, RAG, 프롬프트 관련 기사