AI 에이전트 & 도구
Agent = 자율 판단 + 행동하는 AI. Think → Act → Observe → 반복.
Claude Code가 파일을 읽고, 코드를 작성하고, 테스트를 실행한다. 이것이 바로 AI Agent — 스스로 판단하고 도구를 사용하는 AI이다. AI가 자율적으로 행동하면, 통제는 어떻게 할까?
챗봇은 대답만 합니다. 에이전트는 직접 행동합니다
2025년, AI의 가장 큰 변화는 '말만 하는 AI'에서 '행동하는 AI'로의 전환입니다. 여러분이 지금 이 앱에서 학습하는 동안, 다른 쪽에서는 AI 에이전트가 ���드를 작성하고, PR을 만들고, 버그를 수정하고 있습니다.
ChatGPT에게 '파일 만들어줘'라고 하면 코드만 보여줍니다. Claude Code에게 같은 말을 하면 실제로 파일을 만듭니다. 이 차이가 Agent입니다.
Agent, Tool Use, Function Calling, MCP, Orchestration, Multi-Agent, Memory, Grounding, Guardrail, Alignment, Eval
Agent(에이전트) — 자율적으로 판단하고 행동하는 AI 시스템입니다.
Tool Use(도구 사용) — AI가 외부 도구를 호출하는 기능입니다. Function Calling — AI가 정의된 함수를 호출하는 메커니즘입니다.
MCP(Model Context Protocol) — AI 모델이 다양한 도구와 데이터 소스에 연결하는 표준 프로토콜입니다. Anthropic이 만들었습니다. USB-C처럼 AI 도구 연결의 표준을 목표로 합니다.
Agent = 자율 판단 + 행동하는 AI Tool Use = 외부 도구 호출 (검색, 코드 실행) Function Calling = 함수 자동 호출 MCP = AI 도구 연결 표준 (USB-C for AI)
Orchestration(오케스트레이션) — 여러 AI 모델과 도구를 조율하는 것입니다. Multi-Agent — 여러 에이전트가 협력하는 시스템입니다.
Memory(메모리) — 에이전트가 과거 대화나 작업 결과를 기억하는 기능입니다. Grounding(그라운딩) — AI 응답을 실제 데이터에 기반시키는 것입니다. Hallucination을 줄입니다.
Orchestration = AI들의 지휘자 (조율) Multi-Agent = 여러 에이전트 협력 Memory = 과거 정보 기억 (단기/장기) Grounding = 실제 데이터 기반 응답 (환각 방지)
Guardrail(가드레일) — AI가 위험하거나 부적절한 행동을 하지 않도록 하는 안전장치입니다.
Alignment(정렬) — AI의 목표를 인간의 가치관·의도와 일치시키는 것입니다. '유용하고(Helpful), 무해하며(Harmless), 정직한(Honest)' AI를 만드는 연구 분야입니다.
Eval(평가) — AI 시스템의 성능을 체계적으로 측정하는 것입니다.
Guardrail = AI 안전 울타리 (위험 행동 차단) Alignment = AI 목표 ↔ 인간 가치 일치시키기 Eval = AI 성능 체계적 평가 (시험·채점)
에이전트의 핵심은 '생각 → 행동 → 관찰' 루프입니다.
에이전트의 Think → Act → Observe 루프를 의사 코드로 표현.
생각(Think) → 행동(Act) → 관찰(Observe) → 반복. 이 루프가 AI 에이전트의 전부입니다.
| 에이전트 기본 | 설명 |
|---|---|
| Agent | 자율적으로 판단하고 행동하는 AI 시스템 |
| Tool Use | AI가 외부 도구를 호출 |
| Function Calling | AI가 정의된 함수를 자동 호출 |
| MCP | AI 도구 연결의 표준 프로토콜 |
| 협업 & 기억 | 설명 |
|---|---|
| Orchestration | 여러 AI와 도구를 조율하는 지휘자 |
| Multi-Agent | 여러 에이전트가 역할 분담·협력 |
| Memory | 과거 대화·작업을 기억 |
| Grounding | 실제 데이터에 기반하여 Hallucination 방지 |
| 안전 & 평가 | 설명 |
|---|---|
| Guardrail | AI의 안전 울타리 — 위험 행동 차단 |
| Alignment | AI 목표를 인간 가치와 일치 (HHH) |
| Eval | AI 성능을 체계적으로 측정 |
에이전트의 핵심 ���프: 생각(Think) → 행동(Act) → 관찰(Observe) → 반복
AI 모델이 다양한 도구와 데이터 소스에 연결하는 표준 프로토콜은?
Agent는 챗봇과 달리 스스로 판단하고 도구를 사용하여 행동할 수 있다
AI가 위험하거나 부적절한 행동을 하지 않도록 하는 안전장치는?
AI 응답을 실제 데이터에 기반시켜 Hallucination을 줄이는 것은?