파인튜닝 (fine-tuning)

이론·모델

파인튜닝 (fine-tuning)

기존 학습된 모델을 특정 용도·도메인 데이터로 추가 훈련해 거동을 조정하는 기법.

1줄 정의

기존 학습된 모델을 특정 용도·도메인 데이터로 추가 훈련해 거동을 조정하는 기법.

전체 시스템에서 맡는 역할

LLM 본체를 0 에서 다시 학습하려면 천문학적 비용이 든다. 반대로 프롬프트 만으로 거동을 바꾸는 데는 한계가 있다. 이 중간을 메우는 게 파인튜닝.

3 단계가 있다.

  • Full fine-tuning: 모델 전 파라미터 재학습. 거대 모델에선 현실적이지 않음
  • LoRA 등 경량 fine-tuning: 추가 작은 가중치만 학습. 비용 1/10 이하
  • Instruction tuning / RLHF: 지시 추종성이나 안전성 조정 (제공사 측에서 수행)

실무에서 “파인튜닝할까요?” 라고 물을 때 보통 2번, 경량 타입을 가리킨다.

흔한 오해

  • 오해 1: 파인튜닝 = 새 지식을 외우게 하기, 라고 여겨지기 쉽다.

– 실제로 거동·스타일·포맷 조정 에는 강하지만, 사실 지식의 신뢰할 수 있는 갱신에는 안 맞는다. 지식 추가·갱신은 RAG 가 나을 때가 많다.

  • 오해 2: 데이터만 있으면 언제든 할 수 있다, 라고 여겨지기 쉽다.

– 실제로 품질 높은 교사 데이터 준비 (수백~수천 건) 와 평가 설계가 병목. 학습 자체보다 준비가 시간을 잡아먹는다.

이 용어가 중요한 이유

파인튜닝을 선택지로 갖고 있으면 “프롬프트로 버티느냐, 모델을 키우느냐” 의 이지선다를 능동적으로 정할 수 있게 된다.

이 용어가 나오는 기사

  • LoRA, Doc-to-LoRA, 도메인 특화 AI 관련 기사

다음에 읽을 용어 3개

  • LoRA — 경량 파인튜닝의 대표.
  • LLM — 파인튜닝 대상.
  • RAG — 대조되는 외장 기법.
最終更新: 2026-04-18 · shuntailor.net テイラー百科事典

ファインチューニング (fine-tuning)

理論・モデル

ファインチューニング (fine-tuning)

既存の学習済みモデルを、特定用途やドメインのデータで追加訓練して振る舞いを調整する手法。

一行定義

既存の学習済みモデルを、特定用途やドメインのデータで追加訓練して振る舞いを調整する手法。

全体システムの中での役割

LLM 本体をゼロから学習し直すには天文学的なコストがかかる。逆に prompt だけで挙動を変えるには限界がある。この中間を埋めるのがファインチューニング。

3 つのレベルがある。

  • フル fine-tuning: モデル全パラメータを再訓練。巨大モデルでは現実的でない
  • LoRA 等の軽量 fine-tuning: 追加の小さな重みだけ学習。コストが 1/10 以下
  • Instruction tuning / RLHF: 指示追従性や安全性の調整(プロバイダ側で実施)

実務で「ファインチューニングしますか?」と問われるのはたいてい 2 番目、軽量タイプを指す。

よくある誤解

  • 誤解 1:ファインチューニング = 新しい知識を覚えさせる、と思われがち。

– 実際には、振る舞い・スタイル・フォーマットの調整 に強いが、事実知識の信頼できる更新には不向き。知識の追加・更新は RAG のほうが向く場合が多い。

  • 誤解 2:データがあればいつでもできる、と思われがち。

– 実際には、品質の高い教師データの用意 (数百〜数千件) と評価設計がボトルネック。学習そのものより準備が時間を食う。

この用語が重要な理由

ファインチューニングを選択肢として持つと、「プロンプトで頑張るか、モデルを育てるか」の二択を能動的に決められる

この用語が登場する記事

  • LoRA、Doc-to-LoRA、ドメイン特化 AI 関連記事

次に読むべき用語 3 つ

  • LoRA — 軽量ファインチューニングの代表。
  • LLM — ファインチューニング対象。
  • RAG — 対照される外付け手法。
最終更新: 2026-04-18 · shuntailor.net テイラー百科事典
JAKO