본문 바로가기
개발/LLM

Tuning

by 개발자 구리 2025. 1. 20.

LLM의 기본 모델 자체는 언어 이해와 생성에 초점을 맞추고, 특정한 답을 하게끔 설계된 것은 아니다.

따라서 모델을 재학습시켜 답변 스타일을 최적화하거나, 지시를 이해하고 따르는 능력을 강화해야 한다.

 

1. Fine-tuning

모델이 특정 분야에서 더욱 정교하고 전문적인 답변을 할 수 있게 개선하는 방법이다.

예를 들어, 의학 분야에 대한 데이터로 파인 튜닝을 하면 특정 상황에 대한 정확한 답변이 가능해진다.

 

PEFT (Parameter Efficient Fine-tuning)

파인 튜닝을 진행할 때 일부 파라미터만 업데이트 하더라도 큰 성능 개선을 기대할 수 있는 방식으로,

요즘에는 LoRA (Low Rank Adaptation) 혹은 QLoRA 기법이 제시되고 있다.

 

2. Instruction-tuning

지침-응답의 쌍으로 다양한 데이터셋을 준비한다.

chatGPT도 Instruction-tuning 방식으로 튜닝되었다.

 

 

https://blog.sionic.ai/finetuning_llama

'개발 > LLM' 카테고리의 다른 글

Colab으로 LLM 돌리기  (1) 2025.03.06
Instruction Tuning (2)  (0) 2025.02.12
Instruction Tuning (1)  (2) 2025.02.06
Ollama에 Bllossom 모델 적용하기  (0) 2025.01.19
LLM  (1) 2025.01.13