본문 바로가기

ChatGPT에 프롬프트를 입력할 때 활용할 수 있는 하이퍼파라미터들은 모델의 응답 방식과 출력을 조정하는 데 중요한 역할을 합니다. 다음은 주요 하이퍼파라미터와 그 활용법입니다.


1. 주요 하이퍼파라미터와 역할

(1) Temperature (temperature)

  • 모델의 출력 확률 분포의 샤프함(Sharpness)을 조절하는 값.
  • 낮을수록 답변이 더 결정적(Deterministic) 이고, 높을수록 더 창의적(Random) 인 답변을 생성.
  • 기본 범위: 0.0 ~ 2.0 (보통 0.1 ~ 1.0 사이 사용)

🔹 활용법:

  • temperature = 0.1 → 논리적이고 정확한 답변을 원할 때 (예: 프로그래밍, 논리적 설명)
  • temperature = 1.0 → 창의적이고 다양한 응답을 원할 때 (예: 스토리 생성, 브레인스토밍)
  • temperature = 1.5 → 예상치 못한 독창적인 응답을 원할 때 (예: 시나리오 아이디어)

📌 예제:

plaintext
복사편집
[Temperature=0.1] Q: "사과와 배의 차이를 설명해줘." A: "사과는 둥글고 붉은색이며, 배는 둥글거나 타원형이고 노란색이다." [Temperature=1.2] Q: "사과와 배의 차이를 설명해줘." A: "사과는 과일의 신선한 포옹처럼 느껴지고, 배는 단맛이 스며든 차가운 물방울 같은 느낌이야!"

(2) Top-p (Nucleus Sampling)

  • 모델이 다음 단어를 선택할 때 확률이 높은 상위 p% 단어만 고려하도록 제한.
  • 0.0 ~ 1.0 범위에서 설정.

🔹 활용법:

  • top_p = 0.1 → 가장 확실한 단어만 선택 (보수적인 응답)
  • top_p = 0.9 → 다양한 표현을 포함한 응답 (창의적 표현 증가)
  • top_p = 1.0 → 제한 없음 (완전히 자유롭게 응답)

📌 예제:

plaintext
복사편집
[Top-p=0.1] Q: "오늘 날씨 어때?" A: "맑고 따뜻합니다." [Top-p=0.9] Q: "오늘 날씨 어때?" A: "햇살이 포근하게 내리쬐고, 하늘은 청명하며 바람은 살랑거려요."

(값이 높을수록 묘사가 풍부해짐)


(3) Maximum Tokens (max_tokens)

  • 한 응답에서 생성할 수 있는 최대 토큰(단어 단위) 수
  • 기본적으로 100~4000 범위 (모델에 따라 다름)

🔹 활용법:

  • max_tokens = 50 → 짧고 간결한 응답
  • max_tokens = 500 → 자세한 설명이 필요한 응답
  • max_tokens = 4000 → 최대한 긴 응답을 원할 때

📌 예제:

plaintext
복사편집
[max_tokens=30] Q: "블랙홀에 대해 설명해줘." A: "블랙홀은 중력이 극도로 강하여 빛조차 빠져나올 수 없는 천체입니다." [max_tokens=200] Q: "블랙홀에 대해 설명해줘." A: "블랙홀은 아인슈타인의 일반 상대성이론에 의해 예측된 천체로서, 사건의 지평선을 넘어선 물질은 되돌아올 수 없습니다. 중심부에는 특이점이 존재하며..."

(4) Frequency Penalty (frequency_penalty)

  • 같은 단어가 반복되는 것을 얼마나 억제할지 조절하는 값.
  • 범위: -2.0 ~ 2.0
  • 양수(>0): 반복을 줄이고 다양성을 높임.
  • 음수(<0): 특정 단어나 구문을 더 자주 사용하게 함.

🔹 활용법:

  • frequency_penalty = 0.0 → 기본값 (일반적인 반복 수준)
  • frequency_penalty = 1.0 → 같은 단어 반복을 줄이고 더 다양한 표현을 사용
  • frequency_penalty = -1.0 → 특정 단어가 반복되는 것이 유리할 때 (예: 키워드 강화)

📌 예제:

plaintext
복사편집
[Frequency Penalty=0.0] Q: "사랑에 대해 시를 써줘." A: "사랑은 바람처럼 다가오고, 사랑은 꽃처럼 피어난다. 사랑은 마음을 따뜻하게 한다." [Frequency Penalty=1.0] Q: "사랑에 대해 시를 써줘." A: "사랑은 새벽의 첫 빛, 바다의 속삭임, 눈부신 저녁노을과 같은 선물."

(반복을 줄여 더 다양한 표현 사용)


(5) Presence Penalty (presence_penalty)

  • 새로운 주제나 단어를 더 자주 등장하게 만듦.
  • 범위: -2.0 ~ 2.0
  • 양수(>0): 새로운 단어나 개념을 더 자주 사용하도록 유도.
  • 음수(<0): 특정 주제나 단어를 더 집중적으로 반복.

🔹 활용법:

  • presence_penalty = 0.0 → 일반적인 응답
  • presence_penalty = 1.0 → 새로운 아이디어를 많이 포함
  • presence_penalty = -1.0 → 특정 주제를 집중적으로 설명

📌 예제:

plaintext
복사편집
[Presence Penalty=0.0] Q: "우주에 대한 설명을 해줘." A: "우주는 무한하며, 수많은 별과 은하가 존재합니다." [Presence Penalty=1.5] Q: "우주에 대한 설명을 해줘." A: "우주는 무한하며, 우리가 아직 발견하지 못한 차원이 있을 수도 있습니다. 블랙홀, 다중우주 이론 등 신비로운 요소가 많습니다."

(새로운 개념이 더 많이 등장)


2. 하이퍼파라미터 설정 조합 예시

사용 목적에 따라 적절한 값을 설정하는 것이 중요합니다.

목적TemperatureTop-pMax TokensFrequency PenaltyPresence Penalty

논리적인 답변 0.1 0.3 100 0.0 0.0
창의적인 답변 1.0 0.9 200 0.5 0.5
매우 창의적인 답변 1.5 1.0 400 1.0 1.5
짧고 명확한 답변 0.2 0.5 50 0.0 0.0
새로운 개념 포함 1.0 0.9 200 0.0 1.0

📌 결론

ChatGPT에 프롬프트를 입력할 때, Temperature, Top-p, Max Tokens, Frequency Penalty, Presence Penalty 등을 조절하여 원하는 답변을 얻을 수 있습니다.
목적에 맞게 적절한 하이퍼파라미터를 설정하면 논리적인 답변부터 창의적인 답변까지 자유롭게 조정할 수 있습니다. 😊

아하(AHA)

환영합니다. 전자칠판, 전자교탁, 플라즈마 공기살균기, 공기질측정기, 완속.급속충전기 전문회사 아하의 블로그입니다. :)