LLM (거대 언어 모델)

이론·모델

LLM (거대 언어 모델)

방대한 텍스트로 훈련되어 입력에 이어 다음 토큰을 예측하는 생성 모델. ChatGPT 와 Claude 의 본체.

1줄 정의

방대한 텍스트로 훈련되어 입력에 이어 다음 토큰을 예측하는 생성 모델. ChatGPT 와 Claude 의 본체.

전체 시스템에서 맡는 역할

LLM 은 Large Language Model 의 약자. “ChatGPT 와 같은 것” 으로 봐도 대체로 맞지만, 엄밀히는 모델 본체 를 가리키는 말이다.

구조의 단순함에 비해, LLM 은 현대 AI 의 핵심 기구로 작동한다. 입력 (프롬프트) 을 받아 다음에 올 토큰 을 하나씩 예측해 돌려준다. 그뿐인 장치지만 방대한 훈련 데이터를 흡수한 결과, 의미가 살아 있는 장문 생성, 코드 생성, 요약, 번역, 추론이 한 모델에서 가능해진다.

LLM 은 시스템 안에서 3개 자리를 취할 수 있다.

  • 단독: ChatGPT 처럼 사람과 대화만
  • 래퍼: API 경유로 다른 앱에서 호출
  • 에이전트의 뇌: agent 루프 제어 안에서 판단 역할

실무에서 만날 때 어느 자리의 LLM 인지 의식하면 설계 판단이 덜 흔들린다.

흔한 오해

  • 오해 1: LLM 은 “지식을 갖고 있다” 라고 여겨지기 쉽다.

– 실제로는 훈련 데이터의 통계 분포를 재현할 뿐이고, 학습 컷오프 이후 정보는 모른다. 최신 정보는 RAG 나 검색으로 보완해야 한다.

  • 오해 2: 모델 크기가 클수록 항상 좋다, 라고 기대되기 쉽다.

– 실제로 태스크에 비해 과한 대형 모델은 느리고 비쌀 뿐. 용도별로 나눠 쓰는 설계 (Haiku / Sonnet / Opus 같은) 가 현실적.

  • 오해 3: LLM 은 결정론적으로 같은 답을 준다, 라고 여겨지기 쉽다.

– 실제로 샘플링 온도나 시드에 따라 흔들린다. 평가 설계도 재현성을 전제로 짜면 깨진다.

이 용어가 중요한 이유

LLM 을 “AI 그 자체” 가 아니라 하나의 모듈 로 볼 수 있게 되면 자사 시스템 안에서의 배치 판단이 생긴다. 이게 T2 로 잡는 이유.

  • 사용자 대화의 주연으로 할지, 뒤에 둘지
  • 어느 크기·제공자를 쓸지
  • 입출력을 뭘로 감쌀지 (harness, RAG, 도구)

“LLM = AI” 에서 멈추면 이런 판단 언어가 안 나온다.

이 용어가 나오는 기사

  • AI 전반, RAG, 프롬프트 관련 기사

다음에 읽을 용어 3개

  • prompt — LLM 에 대한 입력.
  • token — LLM 이 다루는 단위.
  • agent — LLM 을 감싸는 상위 구조.
最終更新: 2026-04-18 · shuntailor.net テイラー百科事典

LLM (大規模言語モデル)

理論・モデル

LLM (大規模言語モデル)

膨大なテキストで訓練され、入力に続く次のトークンを予測する生成モデル。ChatGPT や Claude の中身。

一行定義

膨大なテキストで訓練され、入力に続く次のトークンを予測する生成モデル。ChatGPT や Claude の中身。

全体システムの中での役割

LLM は Large Language Model の略。「ChatGPT と同じ」と思って概ね合っているが、厳密に言うと モデル本体 を指す語だ。

構造のシンプルさに反して、LLM は現代 AI の中核機構として振る舞う。入力(プロンプト)を受けて、次に続く トークン を一つずつ予測して返す。それだけの装置だが、膨大な訓練データを吸い込んだ結果、意味を保った長文生成、コード生成、要約、翻訳、推論が一つのモデルで可能になる。

LLM はシステムの中で 3 つの位置を取りうる。

  • 単独: ChatGPT のように人間と対話するだけ
  • ラッパー: API 経由で他のアプリケーションに呼ばれる
  • エージェントの脳: agent のループ制御の中で判断役を担う

実務で触れる時、どの位置にいる LLM なのかを意識すると設計判断がぶれにくい。

よくある誤解

  • 誤解 1:LLM は「知識を持っている」と思われがち。

– 実際には、訓練データの統計的な分布を再現しているだけで、学習カットオフ以降の情報は知らない。最新情報は RAG や検索で補う必要がある。

  • 誤解 2:モデルサイズが大きいほど常に良い、と期待されがち。

– 実際には、タスクに対してオーバーキルな大モデルは遅くて高いだけ。用途別に使い分ける設計(Haiku / Sonnet / Opus など)が現実的。

  • 誤解 3:LLM は決定的に同じ答えを返す、と思われがち。

– 実際には、サンプリング温度やシード次第で揺らぐ。評価設計も再現性を前提に組むと壊れる。

この用語が重要な理由

LLM を「AI そのもの」ではなく 一つのモジュール として見られるようになると、自社システムの中での配置判断ができるようになる。これが T2 として押さえる理由。

  • ユーザー対話の主役にするか、裏方にするか
  • どのサイズ・プロバイダを使うか
  • 入出力を何で挟むか(harness, RAG, ツール)

「LLM = AI」で止まっていると、こういう判断の言語が出てこない。

この用語が登場する記事

  • AI 全般、RAG、プロンプト関連記事

次に読むべき用語 3 つ

  • prompt — LLM への入力。
  • token — LLM が扱う単位。
  • agent — LLM を包む上位構造。
最終更新: 2026-04-18 · shuntailor.net テイラー百科事典
JAKO