chapter난이도 · 약 90

Attention — AI의 집중력

Q, K, V · 셀프 어텐션 · 멀티헤드 · 히트맵 — 트랜스포머의 심장을 해부한다.

#Attention#Transformer#Q,K,V#멀티헤드#셀프 어텐션
왜 배우는가

GPT, Claude, Gemini 등 모든 LLM의 핵심은 Attention이다. 선형대수 + 확률 + 미적분이 하나의 공식에서 만나는 지점이며, 이것을 이해하면 LLM의 작동 원리 전체가 보인다.

Topics · 03

레슨 단위로 펼쳐 보기