파인튜닝 (fine-tuning)
기존 학습된 모델을 특정 용도·도메인 데이터로 추가 훈련해 거동을 조정하는 기법.
1줄 정의
기존 학습된 모델을 특정 용도·도메인 데이터로 추가 훈련해 거동을 조정하는 기법.
전체 시스템에서 맡는 역할
LLM 본체를 0 에서 다시 학습하려면 천문학적 비용이 든다. 반대로 프롬프트 만으로 거동을 바꾸는 데는 한계가 있다. 이 중간을 메우는 게 파인튜닝.
3 단계가 있다.
- Full fine-tuning: 모델 전 파라미터 재학습. 거대 모델에선 현실적이지 않음
- LoRA 등 경량 fine-tuning: 추가 작은 가중치만 학습. 비용 1/10 이하
- Instruction tuning / RLHF: 지시 추종성이나 안전성 조정 (제공사 측에서 수행)
실무에서 “파인튜닝할까요?” 라고 물을 때 보통 2번, 경량 타입을 가리킨다.
흔한 오해
- 오해 1: 파인튜닝 = 새 지식을 외우게 하기, 라고 여겨지기 쉽다.
– 실제로 거동·스타일·포맷 조정 에는 강하지만, 사실 지식의 신뢰할 수 있는 갱신에는 안 맞는다. 지식 추가·갱신은 RAG 가 나을 때가 많다.
- 오해 2: 데이터만 있으면 언제든 할 수 있다, 라고 여겨지기 쉽다.
– 실제로 품질 높은 교사 데이터 준비 (수백~수천 건) 와 평가 설계가 병목. 학습 자체보다 준비가 시간을 잡아먹는다.
이 용어가 중요한 이유
파인튜닝을 선택지로 갖고 있으면 “프롬프트로 버티느냐, 모델을 키우느냐” 의 이지선다를 능동적으로 정할 수 있게 된다.
이 용어가 나오는 기사
- LoRA, Doc-to-LoRA, 도메인 특화 AI 관련 기사