Ch.10 바이브코더 용어집 — AI · LLM · 개발 도구

AI 에이전트 & 도구

AI Agent의 개념과 Tool Use의 동작 방식을 이해한다MCP, Multi-Agent, Orchestration 용어를 안다Guardrail, Alignment, Eval의 역할을 설명한다

AI가 스스로 도구를 쓴다고?

Claude Code가 파일을 읽고, 코드를 작성하고, 테스트를 실행합니다. 이것이 바로 AI Agent — 스스로 판단하고 도구를 사용하는 AI입니다.

AI가 자율적으로 행동하면, 통제는 어떻게 할까?

Agent는 생각하고 행동하는 AI입니다. 도구 사용, 메모리, 안전장치까지 알아봅시다.


article

핵심 내용

챗봇은 대답만 합니다. 에이전트는 직접 행동합니다

2025년, AI의 가장 큰 변화는 '말만 하는 AI'에서 '행동하는 AI'로의 전환입니다. 여러분이 지금 이 앱에서 학습하는 동안, 다른 쪽에서는 AI 에이전트가 코드를 작성하고, PR을 만들고, 버그를 수정하고 있습니다. 이 섹션은 그 '행동하는 AI'의 핵심 개념을 정리합니다.

ChatGPT에게 '파일 만들어줘'라고 하면 코드만 보여줍니다. Claude Code에게 같은 말을 하면 실제로 파일을 만듭니다. 이 차이가 Agent입니다.

Agent, Tool Use, Function Calling, MCP, Orchestration, Multi-Agent, Memory, Grounding, Guardrail, Alignment, Eval

Agent(에이전트) — 자율적으로 판단하고 행동하는 AI 시스템입니다. 목표를 받으면 스스로 계획을 세우고, 도구를 사용하고, 결과를 확인합니다.

Tool Use(도구 사용) — AI가 외부 도구를 호출하는 기능입니다. 웹 검색, 코드 실행, 파일 읽기 등. Function Calling — AI가 정의된 함수를 호출하는 메커니즘입니다. '날씨 API 호출', 'DB 조회' 같은 것을 AI가 자동으로 실행합니다.

MCP(Model Context Protocol) — AI 모델이 다양한 도구와 데이터 소스에 연결하는 표준 프로토콜입니다. Anthropic이 만들었습니다. USB-C처럼 AI 도구 연결의 표준을 목표로 합니다.

Agent = 자율 판단 + 행동하는 AI Tool Use = 외부 도구 호출 (검색, 코드 실행) Function Calling = 함수 자동 호출 MCP = AI 도구 연결 표준 (USB-C for AI)

Orchestration(오케스트레이션) — 여러 AI 모델과 도구를 조율하는 것입니다. 오케스트라 지휘자처럼, 어떤 AI가 어떤 작업을 맡을지 결정합니다. Multi-Agent — 여러 에이전트가 협력하는 시스템입니다. 하나는 코딩, 하나는 검토, 하나는 테스트를 담당합니다.

Memory(메모리) — 에이전트가 과거 대화나 작업 결과를 기억하는 기능입니다. 단기 메모리(현재 대화)와 장기 메모리(파일 저장)로 나뉩니다. Grounding(그라운딩) — AI 응답을 실제 데이터에 기반시키는 것입니다. Hallucination을 줄이기 위해 검색 결과나 문서를 참조하게 합니다.

Orchestration = AI들의 지휘자 (조율) Multi-Agent = 여러 에이전트 협력 Memory = 과거 정보 기억 (단기/장기) Grounding = 실제 데이터 기반 응답 (환각 방지)

Guardrail(가드레일) — AI가 위험하거나 부적절한 행동을 하지 않도록 하는 안전장치입니다. 고속도로 가드레일처럼, AI가 '넘어가면 안 되는 선'을 지정합니다. 유해 콘텐츠 차단, 개인정보 필터링 등.

Alignment(정렬) — AI의 목표를 인간의 가치관·의도와 일치시키는 것입니다. '유용하고(Helpful), 무해하며(Harmless), 정직한(Honest)' AI를 만드는 연구 분야입니다. AI 안전의 핵심 주제입니다.

Eval(평가) — AI 시스템의 성능을 체계적으로 측정하는 것입니다. 정확도, 안전성, 속도, 비용 등을 벤치마크로 평가합니다. '시험을 출제하고 채점하는 것'입니다.

Guardrail = AI 안전 울타리 (위험 행동 차단) Alignment = AI 목표 ↔ 인간 가치 일치시키기 Eval = AI 성능 체계적 평가 (시험·채점)

에이전트의 핵심은 '생각 → 행동 → 관찰' 루프입니다. 목표를 받으면 스스로 계획을 세우고, 도구를 사용하고, 결과를 보고 다음 행동을 결정합니다. 이것을 코드로 표현하면 놀랍도록 간단합니다.

# AI 에이전트의 핵심 루프 (의사 코드)

def agent_loop(goal: str, tools: list):
    messages = [{"role": "user", "content": goal}]

    while True:
        # 1. 생각: LLM에게 다음 행동 물어보기
        response = llm.chat(messages, tools=tools)

        # 2. 완료 확인: 도구 호출 없으면 끝
        if not response.tool_calls:
            return response.content  # 최종 답변

        # 3. 행동: 도구 실행
        for call in response.tool_calls:
            result = execute_tool(call.name, call.args)

        # 4. 관찰: 결과를 대화에 추가
            messages.append({"role": "tool", "content": result})

        # 다시 1로 돌아가 반복!

생각(Think) → 행동(Act) → 관찰(Observe) → 반복. 이 루프가 AI 에이전트의 전부입니다.

AI 모델이 다양한 도구와 데이터 소스에 연결하는 표준 프로토콜은?

Agent는 챗봇과 달리 스스로 판단하고 도구를 사용하여 행동할 수 있다

AI가 위험하거나 부적절한 행동을 하지 않도록 하는 안전장치는?

AI 응답을 실제 데이터에 기반시켜 Hallucination을 줄이는 것은?

AI 에이전트 & 도구

edit_note

정리 노트

AI 에이전트 핵심 용어 정리

에이전트 기본

Agent
자율적으로 판단하고 행동하는 AI 시스템 (챗봇과 다름)
Tool Use
AI가 외부 도구를 호출 (웹 검색, 코드 실행, 파일 읽기)
Function Calling
AI가 정의된 함수를 자동 호출 (날씨 API, DB 조회)
MCP
AI 도구 연결의 표준 프로토콜 — AI의 USB-C (Anthropic 제작)

협업 & 기억

Orchestration
여러 AI와 도구를 조율하는 지휘자 역할
Multi-Agent
여러 에이전트가 역할 분담·협력 (코딩, 검토, 테스트)
Memory
과거 대화·작업을 기억 (단기: 현재 대화, 장기: 파일 저장)
Grounding
실제 데이터에 기반하여 Hallucination 방지

안전 & 평가

Guardrail
AI의 안전 울타리 — 위험·부적절한 행동 차단
Alignment
AI 목표를 인간 가치와 일치시키기 (HHH: 유용·무해·정직)
Eval
AI 성능을 체계적으로 측정 — 시험 출제·채점

에이전트의 핵심 루프: 생각(Think) → 행동(Act) → 관찰(Observe) → 반복

check_circle

핵심 정리

  • 1Agent = 자율 판단 + 행동하는 AI
  • 2MCP는 AI 도구 연결 표준 (USB-C for AI)
  • 3Guardrail(안전) + Alignment(정렬) = AI 안전의 핵심

퀴즈와 인터랙션으로 더 깊이 학습하세요

play_circle인터랙티브 레슨 시작