학습 콘텐츠 준비 중...
최적화 | 수학 — 원시인도 이해하는 수학 | JIT | JIT
나가기
🔢 수학 — 원시인도 이해하는 수학
›
최적화
1/12
‹
목차
📖
AI의 학습 = 오차 줄이기
📖
경사하강법 — 한 발씩 내려가기
📖
볼록함수와 안장점
❓
경사하강법 1스텝
❓
경사하강법 2스텝
❓
학습률이 크면?
📖
경사하강법 시뮬레이션
❓
미션: 학습률을 골라라!
📖
라그랑주 승수법 — 제약 속의 최적
📖
어디에 쓰나?
❓
확인 퀴즈
🎉
완료!
AI가 고양이를 배우는 과정: 1회차 → 1% 정확도 100회차 → 50% 1000회차 → 95%!
탭하여 계속 ▸
📖
📖
📖
❓
❓
❓
📖
❓
📖
📖
❓
🎉
1 / 12
다음