topic난이도 · 약 25

AI 에이전트 & 도구

Agent = 자율 판단 + 행동하는 AI. Think → Act → Observe → 반복.

#Agent#Tool Use#MCP#Guardrail#Alignment
왜 배우는가

Claude Code가 파일을 읽고, 코드를 작성하고, 테스트를 실행한다. 이것이 바로 AI Agent — 스스로 판단하고 도구를 사용하는 AI이다. AI가 자율적으로 행동하면, 통제는 어떻게 할까?

챗봇은 대답만 합니다. 에이전트는 직접 행동합니다

2025년, AI의 가장 큰 변화는 '말만 하는 AI'에서 '행동하는 AI'로의 전환입니다. 여러분이 지금 이 앱에서 학습하는 동안, 다른 쪽에서는 AI 에이전트가 ���드를 작성하고, PR을 만들고, 버그를 수정하고 있습니다.

ChatGPT에게 '파일 만들어줘'라고 하면 코드만 보여줍니다. Claude Code에게 같은 말을 하면 실제로 파일을 만듭니다. 이 차이가 Agent입니다.

Agent, Tool Use, Function Calling, MCP, Orchestration, Multi-Agent, Memory, Grounding, Guardrail, Alignment, Eval

Agent(에이전트) — 자율적으로 판단하고 행동하는 AI 시스템입니다.

Tool Use(도구 사용) — AI가 외부 도구를 호출하는 기능입니다. Function Calling — AI가 정의된 함수를 호출하는 메커니즘입니다.

MCP(Model Context Protocol) — AI 모델이 다양한 도구와 데이터 소스에 연결하는 표준 프로토콜입니다. Anthropic이 만들었습니다. USB-C처럼 AI 도구 연결의 표준을 목표로 합니다.

Agent = 자율 판단 + 행동하는 AI Tool Use = 외부 도구 호출 (검색, 코드 실행) Function Calling = 함수 자동 호출 MCP = AI 도구 연결 표준 (USB-C for AI)

Orchestration(오케스트레이션) — 여러 AI 모델과 도구를 조율하는 것입니다. Multi-Agent — 여러 에이전트가 협력하는 시스템입니다.

Memory(메모리) — 에이전트가 과거 대화나 작업 결과를 기억하는 기능입니다. Grounding(그라운딩) — AI 응답을 실제 데이터에 기반시키는 것입니다. Hallucination을 줄입니다.

Orchestration = AI들의 지휘자 (조율) Multi-Agent = 여러 에이전트 협력 Memory = 과거 정보 기억 (단기/장기) Grounding = 실제 데이터 기반 응답 (환각 방지)

Guardrail(가드레일) — AI가 위험하거나 부적절한 행동을 하지 않도록 하는 안전장치입니다.

Alignment(정렬) — AI의 목표를 인간의 가치관·의도와 일치시키는 것입니다. '유용하고(Helpful), 무해하며(Harmless), 정직한(Honest)' AI를 만드는 연구 분야입니다.

Eval(평가) — AI 시스템의 성능을 체계적으로 측정하는 것입니다.

Guardrail = AI 안전 울타리 (위험 행동 차단) Alignment = AI 목표 ↔ 인간 가치 일치시키기 Eval = AI 성능 체계적 평가 (시험·채점)

에이전트 루프 — Think(생각) → Act(행동) → Observe(관찰)의 반복 순환

에이전트의 핵심은 '생각 → 행동 → 관찰' 루프입니다.

에이전트의 Think → Act → Observe 루프를 의사 코드로 표현.

생각(Think) → 행동(Act) → 관찰(Observe) → 반복. 이 루프가 AI 에이전트의 전부입니다.

에이전트 기본설명
Agent자율적으로 판단하고 행동하는 AI 시스템
Tool UseAI가 외부 도구를 호출
Function CallingAI가 정의된 함수를 자동 호출
MCPAI 도구 연결의 표준 프로토콜
협업 & 기억설명
Orchestration여러 AI와 도구를 조율하는 지휘자
Multi-Agent여러 에이전트가 역할 분담·협력
Memory과거 대화·작업을 기억
Grounding실제 데이터에 기반하여 Hallucination 방지
안전 & 평가설명
GuardrailAI의 안전 울타리 — 위험 행동 차단
AlignmentAI 목표를 인간 가치와 일치 (HHH)
EvalAI 성능을 체계적으로 측정

에이전트의 핵심 ���프: 생각(Think) → 행동(Act) → 관찰(Observe) → 반복

실기 드릴 4문항
edit실기 드릴 · 단답형

AI 모델이 다양한 도구와 데이터 소스에 연결하는 표준 프로토콜은?

check_circle실기 드릴 · OX

Agent는 챗봇과 달리 스스로 판단하고 도구를 사용하여 행동할 수 있다

edit실기 드릴 · 단답형

AI가 위험하거나 부적절한 행동을 하지 않도록 하는 안전장치는?

edit실기 드릴 · 단답형

AI 응답을 실제 데이터에 기반시켜 Hallucination을 줄이는 것은?