파인튜닝(Fine-tuning)
이미 만들어진 AI 모델(특히 딥러닝 모델, LLM 등)을 새로운 목적에 맞게 조금 더 학습시키는 과정
---
1. 기본 개념
대형 모델(예: GPT, BERT, ResNet)은 이미 방대한 데이터로 학습되어 있음 → 일반적인 언어·이미지 이해 능력 보유.
하지만 특정 분야(예: 의료, 법률, 기업 내부 문서 등)에 특화시키려면 추가 학습 필요.
이때 기존 모델의 가중치(Weights)를 그대로 두고, 일부만 업데이트하거나 전체를 다시 미세 조정하는 방식으로 학습 → 이를 Fine-tuning이라고 함.
---
2. 파인튜닝 방식
1. Full Fine-tuning
모델 전체 파라미터를 다시 학습
데이터가 많고 자원이 충분할 때 가능
비용이 큼
2. 부분 파인튜닝(파라미터 효율적 학습, PEFT)
대표 기법: LoRA (Low-Rank Adaptation), Prefix Tuning, Adapter
모델의 일부 파라미터만 학습 → 메모리·시간 절약
소규모 데이터셋에도 효과적
---
3. 활용 예시
챗봇 고객센터: 기본 GPT 모델에 고객센터 대화 로그로 파인튜닝 → 회사 맞춤 응답 가능
법률 문서 분석: 법률 판례 데이터로 파인튜닝 → 법률 자문에 특화
추천 시스템: 특정 플랫폼의 사용자 리뷰·행동 데이터 반영
이미지 모델: 일반 이미지 모델을 의료 X-ray 데이터로 파인튜닝 → 질병 진단 지원
---
4. 장단점
✅ 장점
특정 도메인에 맞는 성능 향상
상대적으로 적은 데이터로도 가능 (특히 LoRA 등 활용 시)
프롬프트 엔지니어링만으로 부족한 경우 해결책
⚠️ 단점
데이터 준비·정제가 중요 (잘못된 데이터 → 성능 저하)
계산 자원 필요
모델이 과도하게 특정 데이터에 맞춰져 일반성 상실 위험
---
📌 요약
파인튜닝 = 기존 모델을 “특정 용도/분야”에 맞게 미세 조정하는 학습
ChatGPT 같은 LLM을 회사 데이터, **전문 도메인(법/의료/교육)**에 맞게 활용할 때 핵심 기술
---