Ch.4 AI에게 좋은 지시 내리기

LLM의 작동 원리 — 토큰, 컨텍스트, 확률

LLM이 텍스트를 생성하는 기본 원리를 설명할 수 있다토큰의 개념과 한국어 토큰 비용을 이해한다컨텍스트 윈도우의 한계와 관리법을 안다

AI는 진짜 '이해'하는 걸까, 아니면 엄청나게 잘 '흉내'내는 걸까?

Claude에게 질문하면 마치 사람처럼 대답합니다. 이 AI는 정말 내 말을 이해하고 있는 걸까요?

AI가 '이해'한다는 건 무슨 의미일까? 그리고 왜 가끔 엉뚱한 답을 할까?

LLM의 작동 원리를 알면 답이 보입니다. 토큰, 컨텍스트, 확률 — 이 세 가지를 이해하면 AI를 훨씬 잘 다룰 수 있습니다.


article

핵심 내용

LLM = Large Language Model 방대한 텍스트를 학습해서 '다음에 올 단어'를 예측하는 기계

비유: 문장 빈칸 채우기 천재. "오늘 날씨가 좋으니 ___"에서 '산책하자'를 예측합니다. 다만 1만 권의 책을 읽은 수준의 빈칸 채우기입니다.

핵심: AI는 '이해'가 아니라 '패턴 예측'. 하지만 그 예측이 놀라울 정도로 정확합니다

토큰이란? AI가 텍스트를 처리하는 최소 단위

왜 중요할까요? 토큰 = 비용입니다. 한국어는 영어보다 2~3배 더 많은 토큰을 소비합니다. 긴 대화 = 많은 토큰 = 더 많은 비용.

컨텍스트 윈도우 = AI가 한 번에 '기억'할 수 있는 범위

Claude: 200K 토큰 ≈ 소설 3권 분량

한계: 대화가 길어지면 초반 내용을 잊기 시작합니다 이때 /compact/clear 명령어를 사용하세요

비유: 컨텍스트 윈도우는 AI의 '작업 책상'입니다. 책상이 아무리 넓어도 무한하진 않습니다.

한국어 1글자가 대략 몇 토큰인가요?

AI는 대화 내용을 영구적으로 기억한다

LLM 작동 원리 이해 완료

key

핵심 용어

🔤

영어

1단어 ≈ 1토큰 ("hello" = 1토큰)

🇰🇷

한국어

1글자 ≈ 2~3토큰 ("안녕" = 4~6토큰)

💻

코드

함수명·기호 각각 별도 토큰

image

시각 자료

다이어그램: cc-d004
check_circle

핵심 정리

  • 1LLM = '다음 단어 예측' 기계, 이해가 아닌 패턴 매칭
  • 2토큰 = AI의 처리 단위이자 비용 단위, 한국어는 영어보다 2~3배
  • 3컨텍스트 윈도우 = AI의 작업 책상, 무한하지 않으므로 관리 필요

퀴즈와 인터랙션으로 더 깊이 학습하세요

play_circle인터랙티브 레슨 시작