chapter난이도 · 약 60

확률과 AI의 판단

Softmax로 확률 분포를 만들고, Temperature로 창의성을 조절하고, Cross-Entropy로 성적을 매긴다.

#Softmax#Temperature#Cross-Entropy#확률
왜 배우는가

LLM의 본질은 '다음 토큰의 확률 분포를 계산하는 것'이다. Softmax가 logits를 확률로 바꾸고, Temperature가 분포의 날카로움을 조절하고, Cross-Entropy가 학습의 성적표가 된다. 확률 없이는 AI의 텍스트 생성을 이해할 수 없다.

Topics · 03

레슨 단위로 펼쳐 보기