AI 에이전트 (agent)
LLM 에 도구와 루프를 쥐어 주고, 목적에 맞게 스스로 판단하며 여러 단계를 실행하게 만드는 구조의 총칭.
1줄 정의
LLM 에 도구와 루프를 쥐어 주고, 목적에 맞게 스스로 판단하며 여러 단계를 실행하게 만드는 구조의 총칭.
전체 시스템에서 맡는 역할
“AI 에이전트” 는 2024 년 이후 업계 중심 키워드가 됐다. 다만 말이 넓어서 “LLM 을 약간 만진 것” 수준으로 뿌옇게 쓰이기도 한다. 여기서 정의 윤곽을 분명히 해 두자.
AI 에이전트의 본질은 3요소의 조합에 있다.
- LLM: 판단과 생성을 하는 뇌
- Tools: 바깥에 작용하는 손발 (파일 읽기/쓰기, API 호출, 검색, 명령 실행 등)
- Loop: “판단 → 도구 실행 → 결과 읽기 → 다시 판단” 을 도는 제어 구조
이 셋이 갖춰진 게 agent. LLM 단발 호출 (ChatGPT 의 1문 1답) 은 agent 가 아니다. 1회 API 호출로 끝이니까. Tools 가 있어도 Loop 가 없으면 agent 라 부르기 어렵다. 한 스텝만 도니까.
Claude Code 나 Cursor 의 Agent 모드가 전형. 사용자가 “이 버그 고쳐” 라고 하면 모델은 읽고 → 생각하고 → 편집하고 → 테스트 돌리고 → 결과 보고 → 다시 고친다, 를 스스로 돈다. 중간에 사람에게 물을 수도 있지만 기본은 자율로 다음 스텝을 고른다.
요점은 이것. 에이전트를 쓴다는 건 루프 제어를 LLM 에 맡긴다는 것. 이게 기존 자동화 (사람이 플로우차트 그리고 그대로 도는 방식) 와의 본질적 차이다.
흔한 오해
- 오해 1: LLM 에 지시만 내리면 다 “에이전트” 다, 라고 말해지기 쉽다.
– 실제로는 도구와 loop 가 없으면 agent 가 아니라 “chatbot + 프롬프트 엔지니어링” 에서 그친다. 구분하지 않으면 설계 논의가 엇갈린다.
- 오해 2: 에이전트는 완전 자율로 돈다, 라고 기대되기 쉽다.
– 실제로 완전 자율은 다루기 어렵고, 현실에서는 “반자율 + 사람 체크포인트” 로 설계된다. 어디서 사람이 개입할 것인가 (허가 다이얼로그, 차분 리뷰, 위험 조작 확인) 의 설계야말로 실력을 보이는 곳.
- 오해 3: 에이전트는 프롬프트만 잘 쓰면 만들 수 있다, 로 단순화되기 쉽다.
– 실제로는 프롬프트뿐 아니라 harness 설계 (도구, 권한, 컨텍스트 관리, 에러 처리) 가 품질의 대부분을 결정한다. 프롬프트는 요소 하나일 뿐이다.
이 용어가 중요한 이유
“에이전트” 를 모호하게 계속 쓰면 제품에 AI 를 넣을 때의 설계 판단이 거칠어진다. 이게 실무 가치.
- 이 태스크는 단발 LLM 으로 충분한가, 루프가 필요한가
- 도구는 뭘 건넬 것인가, 권한을 어디서 끊을 것인가
- 실패 시 재시도를 모델에 맡길 것인가, 코드로 제어할 것인가
- 사용자 확인은 어느 타이밍에 끼울 것인가
이 질문들에 구체적인 답을 가질 수 있는 건 “에이전트” 라는 말을 윤곽 있게 이해하고 있을 때뿐이다. 자기 팀이나 제품에서 “이거 agent 인가” 를 구분할 수 있는 언어를 갖춰 두면 설계 회의의 해상도가 올라간다.
이 용어가 나오는 기사
- Claude Code / Cursor / 바이브 코딩 관련 거의 모든 기사 (※ auto-link 로 자동 삽입)
다음에 읽을 용어 3개
- Claude Code — 에이전트의 참조 구현.
- tool use — 에이전트의 손발을 성립시키는 기구.
- harness — 에이전트를 감싸는 바깥층.