목차

Llama

  - Parameters
PARAMETER temperature 0.4
PARAMETER top_p 0.4
PARAMETER top_k 30
PARAMETER num_ctx 1024
PARAMETER num_predict 2048

AI 모델(특히 LLM)에서 파라미터(Parameter)는 모델이 결과물을 생성할 때 어떤 태도를 취할지 결정하는 '조절 다이얼'과 같다.

Temperature (온도)

의미: 답변의 창의성무작위성을 조절함.

비유: "점심 뭐 먹을까?"라는 질문에 온도가 낮으면 항상 "비빔밥"이라고 답하고, 온도가 높으면 "우주 식량 스타일의 샐러드 어때?"라고 답하는 식임.

Top-P (Nucleus Sampling)

의미: 누적 확률을 기준으로 후보 단어의 범위를 제한함.

Top-K

의미: 확률 순위가 높은 상위 K개의 단어만 후보로 남긴다.

Num_Ctx (Context Window)

의미: 모델이 한 번에 기억할 수 있는 대화의 양임.

Num_Predict

의미: 모델이 한 번에 출력할 답변의 최대 길이임.

한눈에 비교하기

파라미터 낮을 때의 느낌 높을 때의 느낌
Temperature 엄격한 선비 (정답 위주) 자유로운 예술가 (창의성 위주)
Top-P/K 좁고 깊은 선택 (정확도) 넓고 다양한 선택 (다양성)
Num_Ctx 금붕어 기억력 (단기 기억) 코끼리 기억력 (장기 기억)

지금 설정한 값들은 전반적으로 "군더더기 없이 깔끔하고 논리적인 답변"을 얻기에 아주 적합한 수치임.