Ch.4 AI에게 좋은 지시 내리기
LLM의 작동 원리 — 토큰, 컨텍스트, 확률
AI는 진짜 '이해'하는 걸까, 아니면 엄청나게 잘 '흉내'내는 걸까?
Claude에게 질문하면 마치 사람처럼 대답합니다. 이 AI는 정말 내 말을 이해하고 있는 걸까요?
AI가 '이해'한다는 건 무슨 의미일까? 그리고 왜 가끔 엉뚱한 답을 할까?
LLM의 작동 원리를 알면 답이 보입니다. 토큰, 컨텍스트, 확률 — 이 세 가지를 이해하면 AI를 훨씬 잘 다룰 수 있습니다.
핵심 내용
LLM = Large Language Model 방대한 텍스트를 학습해서 '다음에 올 단어'를 예측하는 기계
비유: 문장 빈칸 채우기 천재. "오늘 날씨가 좋으니 ___"에서 '산책하자'를 예측합니다. 다만 1만 권의 책을 읽은 수준의 빈칸 채우기입니다.
핵심: AI는 '이해'가 아니라 '패턴 예측'. 하지만 그 예측이 놀라울 정도로 정확합니다
토큰이란? AI가 텍스트를 처리하는 최소 단위
왜 중요할까요? 토큰 = 비용입니다. 한국어는 영어보다 2~3배 더 많은 토큰을 소비합니다. 긴 대화 = 많은 토큰 = 더 많은 비용.
컨텍스트 윈도우 = AI가 한 번에 '기억'할 수 있는 범위
Claude: 200K 토큰 ≈ 소설 3권 분량
한계: 대화가 길어지면 초반 내용을 잊기 시작합니다 이때 /compact나 /clear 명령어를 사용하세요
비유: 컨텍스트 윈도우는 AI의 '작업 책상'입니다. 책상이 아무리 넓어도 무한하진 않습니다.
한국어 1글자가 대략 몇 토큰인가요?
AI는 대화 내용을 영구적으로 기억한다
LLM 작동 원리 이해 완료
핵심 용어
영어
1단어 ≈ 1토큰 ("hello" = 1토큰)
한국어
1글자 ≈ 2~3토큰 ("안녕" = 4~6토큰)
코드
함수명·기호 각각 별도 토큰
시각 자료
핵심 정리
- 1LLM = '다음 단어 예측' 기계, 이해가 아닌 패턴 매칭
- 2토큰 = AI의 처리 단위이자 비용 단위, 한국어는 영어보다 2~3배
- 3컨텍스트 윈도우 = AI의 작업 책상, 무한하지 않으므로 관리 필요
퀴즈와 인터랙션으로 더 깊이 학습하세요
play_circle인터랙티브 레슨 시작