chapter★★★★★난이도 · 약 90분
Attention — AI의 집중력
Q, K, V · 셀프 어텐션 · 멀티헤드 · 히트맵 — 트랜스포머의 심장을 해부한다.
#Attention#Transformer#Q,K,V#멀티헤드#셀프 어텐션
왜 배우는가
GPT, Claude, Gemini 등 모든 LLM의 핵심은 Attention이다. 선형대수 + 확률 + 미적분이 하나의 공식에서 만나는 지점이며, 이것을 이해하면 LLM의 작동 원리 전체가 보인다.
Topics · 03