👨‍💻 Tech Story/Tech Inside

[Tech Series] kt cloud AI 에이전트 #2 : 에이전트의 유형과 특성

kt cloud 테크블로그 2025. 3. 24. 18:34


 [kt cloud 마케팅커뮤니케이션팀 김지웅 님 ] 

Intro

안녕하세요, kt cloud 마케터 김지웅 입니다. 🙋‍♂️

지난 1부에서는 AI 에이전트의 정의부터 핵심 구성 요소까지, 기본적인 개념들을 살펴봤어요. AI 에이전트가 단순한 프로그램이 아닌, 환경을 인식하고 판단하여 행동하는 지능형 시스템이라는 점을 이해하셨을 거예요.

 

이번 2부에서는 한 걸음 더 나아가 AI 에이전트의 전통적 유형들과 현대 LLM 시대의 변화에 대해 깊이 있게 알아볼게요. 단순 반사 에이전트부터 학습 에이전트까지 전통적 분류를 살펴보고, 2022년 ChatGPT 등장 이후 이러한 경계가 어떻게 허물어지고 있는지 함께 이해해 볼 거예요. 각 에이전트 유형별 특징과 한계, 그리고 실제 비즈니스 활용 사례를 통해 AI 에이전트의 과거와 현재, 그리고 미래까지 연결해보는 여정을 함께 떠나볼까요? 🚀


전통적 에이전트의 이해와 현대 LLM 시대의 변화

2022년 ChatGPT의 등장으로 AI 에이전트의 패러다임이 크게 변화했어요. 이전에는 각 에이전트 유형이 명확한 경계를 가지고 특정 도메인에 특화된 기능을 수행했다면, 이제는 많은 기업과 개발자들이 GPT, Claude와 같은 대규모 언어 모델(LLM)을 활용한 통합적 에이전트를 개발하고 있어요.

 

사실 이러한 변화의 조짐은 2020년 GPT-3의 등장부터 시작됐어요. 175B 파라미터의 대규모 모델과 Few-shot learning 능력, 그리고 API를 통한 실제 서비스 가능성이 제시되면서 전환기를 맞이했죠. 그러나 결정적인 변화는 2022년 11월 ChatGPT의 출시였어요. 이를 기점으로 에이전트 유형의 경계가 무너지고, 통합적 능력을 가진 새로운 패러다임이 등장했으며, 실제 비즈니스 적용이 급증했어요.

현대 LLM 기반 에이전트들은 전통적인 에이전트 유형들의 경계를 넘어, 다양한 능력을 하나의 시스템에 통합하는 형태로 발전했어요. 자연어 기반 상호작용, 도구 사용 능력, 멀티모달 처리 등 이전에는 각각 다른 에이전트가 담당했던 기능들이 이제는 하나의 시스템 안에서 구현되고 있어요.

 

하지만 이러한 변화 속에서도, 전통적인 AI 에이전트의 유형과 특성을 이해하는 것은 여전히 중요해요. 그 이유는 다음과 같아요.

  1. 기본 원리의 이해: 현대 LLM도 결국 전통적 에이전트의 핵심 원리를 기반으로 해요. 단순 반사 에이전트부터 학습 에이전트까지의 기본 개념을 이해해야 현대 시스템을 더 깊이 파악할 수 있어요.
  2. 설계 관점의 중요성: 특정 문제를 해결하기 위한 에이전트를 설계할 때, 전통적 에이전트 유형의 특성을 적절히 조합하는 것이 효과적이에요. 예를 들어, 어떤 상황에서는 단순한 규칙 기반 접근이 더 효율적일 수도 있어요.
  3. 한계 인식: 각 에이전트 유형의 한계를 이해함으로써, 현대 LLM 기반 시스템의 잠재적 약점도 예측할 수 있어요. 모든 문제가 LLM으로 해결되는 것은 아니니까요.
  4. 발전 방향 예측: 과거부터 현재까지의 발전 과정을 이해하면, 미래 AI 에이전트의 발전 방향도 더 명확하게 예측할 수 있어요. 전통적 에이전트의 한계를 극복하는 방향으로 기술이 발전해왔거든요.

전통적 AI 에이전트의 공통 작동 흐름

AI 에이전트는 단순한 자동화 도구가 아니에요. 마치 유능한 비서나 조력자처럼, 주변 환경을 인식하고 상황을 판단한 뒤에 스스로 ‘무엇을 해야 할지’ 결정을 내려 행동까지 이어가는 존재랍니다.

 

그런데 이 모든 과정이 그냥 되는 건 아니에요. 사실 AI 에이전트는 어떤 유형이든 기본적으로 비슷한 작동 흐름을 따르고 있어요. 이 흐름을 한 번 이해해 두면, 각 에이전트가 어떤 점에 특화되어 있는지를 쉽게 비교할 수 있게 되죠.

🔹 AI 에이전트의 공통 작동 흐름은 이런 식이에요.

  1. 환경 지각 (Perception)
    에이전트는 센서나 외부 입력을 통해 지금 어떤 일이 벌어지고 있는지를 감지해요. "지금 서버가 바쁘네?", "날씨가 흐리군!" 같은 상황 인식이죠.
  2. 상태 업데이트 + 판단 (Reasoning)
    이전에 알고 있던 정보와 지금 받은 데이터를 조합해서 현재 상태를 명확히 파악하고, 규칙이나 모델, 목표 등을 바탕으로 무엇을 할지 결정해요.
  3. 행동 실행 (Action)
    결정이 내려지면 실행에 옮기죠. 예: 서버 확장, 메시지 발송, 장비 제어 등
  4. 결과 반영 (Feedback Loop)
    행동의 결과를 다시 관찰해 학습하거나 다음 판단에 반영하는 구조예요.

앞으로 살펴볼 전통적인 에이전트 유형들은 이 공통 흐름 중 어디에 초점을 맞추느냐에 따라 나뉘어요.

참고로, 현대 LLM 기반 시스템에서는 이 작동 흐름을 조금 다르게 설명하기도 해요. 1부에서 소개했던 것처럼, Google의 최신 백서에서는 Model, Tools, Orchestration Layer라는 구성을 통해 LLM 중심의 에이전트를 정의하고 있죠.

 

이번 글에서는 전통적인 'Perception(지각) → Reasoning(추론) → Action(행동)'이라는 고전적인 틀을 중심으로, 각 에이전트 유형이 어떤 부분에 특화되어 있는지를 살펴볼게요. 😊


1. 단순 반사 에이전트(Simple reflex AI agents): '생각보다 행동이 먼저'인 빠른 대응의 달인 ⚡

“현재 인식에 따라 미리 정의된 규칙을 기반으로 즉각적으로 행동을 선택하는 가장 기본적인 에이전트”

🧩 전통적 분류 기준으로 보면, 이 에이전트는 Perception(지각)Action(행동)에만 집중하고, 중간의 판단 과정(Reasoning)은 생략된 구조예요. 지금 무슨 일이 일어났는지만 보고, 별다른 고민 없이 바로 반응하는 방식이죠.

 

혹시 병원에서 무릎을 톡 치면 다리가 '훅' 올라가는 반사 신경 검사 해보신 적 있으신가요? 단순 반사 에이전트는 딱 그 느낌이에요. 어떤 자극이 오면, 고민 없이 바로 반응하는 에이전트죠.

 

예를 들어, 클라우드 서버 환경에서 갑자기 CPU 사용률이 90%를 넘는다고 해볼게요. 이럴 때 단순 반사 에이전트는 "앗, 큰일이다!" 하고 곧바로 서버를 추가하는 오토스케일링 작업을 실행해요. 어떤 판단도, 고민도 없이 말이죠. 일종의 클라우드 세계의 스프링클러 같은 존재예요. 불이 나면 바로 물 뿌리는 것처럼요. 😊

 

이미지 제공 ❘ AllAboutAI

이 친구의 뇌 구조(?)는 아주 단순해요.

  • 기억력? 없음!
  • 예측력? 없음!
  • 현재 상황만 보고 판단!

이 에이전트는 주변 환경을 관찰하고, 그에 맞는 행동을 정해진 규칙에 따라 즉시 실행해요.

예를 들어, “화재 감지 → 사이렌 울림”, “CPU 사용률 증가 → 서버 확장”처럼 미리 정해놓은 조건-행동 규칙만 가지고 작동하는 구조죠.

이전 상황을 기억하지도 않고, 앞으로 일어날 일을 예측하지도 않아요. 그래서 구조는 단순하지만, 설정만 잘 해두면 믿고 맡길 수 있는 아주 명쾌한 방식이에요.

💡 어디서 많이 쓰일까요?

이 단순하고 빠른 친구는, 아래처럼 즉시 반응이 중요한 곳에서 빛을 발해요.

 

  • 공장 비상 정지 시스템: 위험 감지 → 기계 멈춤
  • 화재 경보 시스템: 연기 감지 → 사이렌 울림
  • 자동 온도 조절기: 실내 온도 낮아짐 → 난방 켜짐

그리고 클라우드 환경에서는?

  • 오토스케일링: CPU 90% 넘음 → 서버 추가
  • 웹 방화벽: 악성 패턴 감지 → 요청 차단

정해진 조건만 충족되면 바로 반응하니까, 고민 없이 빠르게 처리할 수 있어요. 대신 너무 단순하기 때문에 복잡한 문제는 해결 못 해요. 그러니까 '생각은 못 하지만 반응은 빠른' 경비원 스타일이라고 보면 되겠죠.

✍️ 만들 때 기억할 3가지 팁 

  1. 규칙은 명확하게!
    • 예: "CPU > 90% → 서버 스케일 아웃"
    • 애매하면 안 돼요. 조건은 딱 떨어지게!
  2. 입력 정보는 단순하게!
    • 예: 방화벽은 모든 트래픽을 분석하지 않고, 몇 가지 핵심 패턴만 확인해요.
  3. 과거 기억은 없다는 걸 잊지 마세요!
    • 예: CPU 사용률이 어제 어땠는지는 고려 안 해요. 지금만 봐요!

요즘 시대엔 어디서 쓰일까? 🧠 → 🤖

요즘처럼 GPT 같은 LLM 기반 시스템이 뜨고 있는 시대에도, 단순 반사 에이전트의 구조는 여전히 유효해요. 예를 들어,

  • LLM이 아닌 전처리 필터: 욕설 필터링, 악성 URL 차단 등
  • 비상 자동 응답 시스템: 서버 오류 발생 시 빠른 메시지 발송 등

이처럼 단순한 구조지만, 정말 빠르고 중요한 곳에서는 이 단순함이 강력한 무기가 된답니다!


2. 모델 기반 에이전트(Model-based AI agents): 경험을 배우는 현명한 조언자 🎓

“환경의 내부 모델을 유지하며 과거 경험과 현재 상태를 고려하여 의사 결정을 내리는 에이전트”

🧩 전통적 구조로 보면, 이 에이전트는 Perception(지각)을 통해 들어온 정보를 내부에 저장하고, 이를 바탕으로 Reasoning(추론) 능력을 강화한 형태예요. '지금'만 보는 게 아니라, '과거와 미래'를 함께 고려하죠.

 

단순 반사 에이전트가 즉각적인 반응에 특화된 친구였다면, 모델 기반 에이전트는 한층 더 생각이 깊은 타입이에요. 이 친구는 “지금 이런 일이 벌어졌는데, 과거에도 비슷한 상황이 있었지? 그럼 다음엔 이런 일이 벌어질지도 몰라”라고 생각하면서 행동해요. 마치 체스 선수가 상대방 수를 예측하며 다음 수를 준비하듯, 이 에이전트는 현재 상태뿐만 아니라 과거 경험과 내부 모델을 활용해 미래를 예측하고 행동해요.

 

이런 장면, 상상해볼까요? 어떤 이커머스 회사의 클라우드 시스템을 관리하는 AI가 있다고 해요. 최근 며칠간 트래픽이 계속 오르고 있네요. 이걸 본 모델 기반 에이전트는 이렇게 판단하죠. “음... 이건 지난번 신제품 출시 전주랑 패턴이 비슷해. 그때 서버가 한번 터졌었지... 이번에도 대비해야겠어!” 그래서 미리 서버를 확장하거나, 캐시 전략을 조정해 문제를 피하게 해요. 😉

이미지 제공 ❘ AllAboutAI

🔹 이 친구의 특화 포인트는?

  • 환경의 내부 모델을 가지고 있어요!
  • 과거 상황을 기억해서 비교해요
  • 지금뿐만 아니라 미래도 생각해요!

즉, 앞서 말한 공통 흐름 중 2단계 상태 업데이트3단계 의사결정이 매우 정교하게 작동하는 에이전트라고 볼 수 있어요.

 

 

🛠️ 어디에 유용할까요?

  • 자율주행 차량: 교통 상황 예측, 위험 감지
  • 날씨 예측 시스템: 변화 패턴 분석
  • 클라우드 자원 관리: 수요 예측에 따른 인프라 조정
  • 재고 관리 시스템: 판매 추세 분석 후 재고 보충 계획 수립

✍️ 구현 시 꼭 고려해야 할 것들

  1. 환경 모델을 잘 설계하자
    • 예: 시간대별 트래픽 변화, 이벤트 일정 등 반영
  2. 정보가 완벽하지 않아도 추론 가능하게 하자
    • 일부 데이터 누락이 있어도 예측할 수 있도록
  3. 피드백을 반영해서 계속 발전하게 하자
    • 예측이 틀렸다면, 다음엔 더 정확히 예측하도록 개선!

LLM 시대엔 어떻게 활용될까? 💬

GPT와 같은 LLM은 내부적으로 명시적인 환경 모델을 사용하진 않지만, 대규모 문맥 이해를 통해 유사한 기능을 수행해요. 사용자의 대화 이력이나 최근 질문을 기반으로 앞으로 나올 요청을 예측하고, 더 나은 답변을 제공하죠. 또, LLM 기반의 Agent가 외부 툴과 연동되어 상황을 기억하고 계획을 세우는 구조로 발전하면서, 점점 더 모델 기반 에이전트의 특징을 흡수하고 있어요.


3. 목표 기반 에이전트(Goal-based AI agents): 목표를 향해 달리는 마라토너 🎯

“명확한 목표를 설정하고 그 목표를 달성하기 위해 계획을 수립하고 실행하는 에이전트”

🧩 이 에이전트는 Perception(지각)을 기반으로 현재 상태를 파악하고, Reasoning(추론)을 통해 어떤 행동이 목표에 더 가까운지를 계산하며, Action(행동)으로 실행까지 이어지는 전통적 흐름을 모두 포함하는 구조예요.

 

이번엔 조금 더 의지가 강한 친구를 만나볼까요? 목표 기반 에이전트는 단순히 “지금 뭘 해야 하지?”가 아니라, “내가 가야 할 목적지가 어디고, 거기까지 어떻게 가야 가장 효율적일까?”를 생각하는 똑똑한 기획자 같은 AI랍니다.

 

예를 들어 이런 상황이에요! “이번 달 클라우드 비용을 15% 줄여야 해!”라는 목표가 주어졌다고 해볼게요. 이 에이전트는 단순히 현재 상태만 보고 대응하지 않아요. 비용 절감을 위해 불필요한 인스턴스를 줄이고, 트래픽 패턴을 분석해서 밤에는 리소스를 줄이고, 낮에는 유지하거나 오히려 성능을 더 높이기도 해요.

즉, 목표를 중심으로 행동을 ‘계획’하고, 그 계획에 따라 ‘결정’을 내리는 방식이죠.

이미지 제공 ❘ AllAboutAI

🔹 이 에이전트의 강점은?

  • 목표를 먼저 설정해요!
  • 목표 달성을 위한 여러 경로를 시뮬레이션해요!
  • 가장 나은 길을 찾아 실행해요!

공통 작동 흐름 중에선 특히 3단계 의사결정4단계 행동 실행에서 두각을 나타내는 친구에요. 목표라는 나침반을 가지고 길을 찾는 느낌이죠!

 

📍 어디서 쓸 수 있을까요?

  • 내비게이션 시스템: 목적지까지 최적 경로 계산
  • 로봇 청소기: 전체 공간을 빠짐없이 청소하려면 어디부터 갈까?
  • 물류 배송 시스템: 시간과 거리, 비용까지 고려해서 가장 효율적인 경로 찾기

그리고 클라우드에서는?

  • 배포 자동화(CI/CD): 코드가 안정적으로 서비스에 반영되도록 목표 기반 플로우 설계
  • 비용 최적화 도우미: 리소스 감축이라는 목표를 기준으로 여러 액션 조합 비교

✍️ 구현 시 고려할 점은?

  1. 목표를 명확하게 정의해야 해요
    • “성능 개선”처럼 모호한 게 아니라, “응답 속도 20% 개선”처럼 구체적이어야 해요.
  2. 여러 시나리오를 비교해서 최선의 경로를 선택해야 해요
    • 퍼즐 맞추듯이 조건을 조합하고 비교할 수 있어야 해요.
  3. 복잡한 문제를 작은 단위로 나눠야 해요
    • 큰 목표 → 작은 목표들로 쪼개서 순차적으로 해결하도록 만들면 좋아요!

요즘엔 어디서 쓰일까? 🤖

LLM 기반 시스템 중에서도 AutoGPT나 AgentGPT 같은 프레임워크는 사용자로부터 목표만 입력받으면 그걸 달성하기 위한 하위 작업을 스스로 분해하고 실행 계획을 세워요. 이건 목표 기반 에이전트의 개념을 현대적으로 구현한 사례예요. 또, LLM이 API를 호출하거나 외부 도구와 연동해서 목표 달성에 필요한 조치를 취하는 경우, 그 전반적인 흐름도 이와 닮아 있죠.


4. 유틸리티 기반 에이전트(Utility-based AI agents): ‘최선의 선택’을 계산하는 전략가 ⚖️

“각 행동의 유용성이나 가치를 평가하는 유틸리티 함수를 사용하여 최적의 결과를 도출하는 에이전트”

🧩 전통적 구조에서 보면, 이 에이전트는 특히 Reasoning(판단) 단계에 강점을 두고 있어요. 다양한 선택지의 효용(utility)을 계산하고, 그중 가장 좋은 걸 골라내는 게 핵심이니까요.

 

이번엔 훨씬 더 계산적인 친구를 소개할게요. 유틸리티 기반 에이전트는 말 그대로 “이 선택이 얼마나 쓸모 있을까?”, “지금 내게 가장 이득이 되는 건 뭘까?”를 고민하는 전략가예요. 앞선 단순 반사나 목표 기반 에이전트는 조건이 딱 떨어지는 경우엔 효과적이지만, 현실은 그렇지 않은 경우가 더 많죠. 예를 들어볼게요. “클라우드 비용은 줄이고 싶지만, 사용자 응답 속도는 유지하고 싶고, 동시에 장애도 없어야 해요.” 이럴 때 어떤 결정을 내릴 수 있을까요?

 

유틸리티 기반 에이전트는 이런 여러 조건 사이에서 가장 좋은 균형점을 계산해내요. ‘가치 함수(Utility Function)’를 통해 각각의 행동이 가져올 이득을 수치화하고, 그중 가장 높은 점수를 받는 선택지를 실행하죠. 🤭

이미지 제공 ❘ AllAboutAI

🔹 이 에이전트의 사고 방식은 이래요

  • 설정된 가치: 비용은 40점, 성능은 35점, 안정성은 25점
  • "A 옵션은 싸긴 한데 성능이 좀 아쉬워서 총점은 78점이네."
  • "B 옵션은 가격이 조금 더 나가지만, 성능과 안정성이 훨씬 좋아서 총점 83점!"
  • "그럼 더 높은 점수인 B를 골라야겠다! 👍"

정말 숫자와 판단의 대가 같지 않나요? 😎

 

🔹 특히 두각을 드러내는 영역은?

공통 흐름 중에서도 의사결정 단계(3단계)에서 가장 깊은 계산을 하고, 행동 예측 및 시뮬레이션을 거쳐 최적의 해법을 선택하는 데에 강해요.

🚙 어디서 자주 볼 수 있을까요?

  • 추천 시스템: 사용자의 만족도, 클릭률, 수익 등을 동시에 고려해서 최적의 콘텐츠 추천
  • 스마트 빌딩 시스템: 에너지 효율과 거주자 편의 사이의 균형 맞추기
  • 자율주행차: 빠르면서도 안전하고, 연비도 좋은 경로 선택
  • 클라우드 자원 분배: 서버 자원을 사용자 요청에 가장 효율적으로 할당

✍️ 구현 시 꼭 신경 써야 할 점들

  1. 가치 판단 기준(유틸리티 함수)을 잘 설계해야 해요
    • 어떤 요소가 중요한지, 각각에 얼마만큼의 가중치를 줄지 신중하게 결정해야 해요.
  2. 여러 요소를 동시에 고려할 수 있어야 해요
    • 성능만 좋은 게 아니라, 비용과 안정성, 유지보수성도 고려 대상이 되죠.
  3. 불확실한 상황에서도 합리적인 결정을 내려야 해요
    • 예: "이 조치가 성능을 향상시킬 확률은 80%, 비용은 확실히 늘어난다" 같은 예측 기반 판단이 필요해요.

LLM 시대에 어떻게 적용될까? 🤖

대형 언어 모델(LLM) 기반 에이전트들도 점점 더 이런 유틸리티 기반 사고를 흡수하고 있어요. 예를 들어, 사용자의 질문에 답변할 때도 단순히 '정답'을 찾는 게 아니라

  • 사용자 만족도는 어떤가?
  • 맥락에 얼마나 잘 맞는가?
  • 이 답변이 후속 질문을 줄일 수 있는가?

이런 다양한 요소를 평가하고, 그중 가장 '유용할 것 같은 답변'을 생성하는 방향으로 발전하고 있어요. 또한, AI 기반 의사결정 시스템에서 LLM이 조언자 역할로 쓰일 때, 유틸리티 평가를 보조하는 역할도 가능하답니다.


5. 학습 에이전트(Learning-based AI agents): 끊임없이 성장하는 열정 만렙 인턴 📚

“경험을 통해 지속적으로 성능을 개선하고 환경 변화에 적응하는 에이전트”

🧩 이 에이전트는 전통적인 흐름에서 Feedback → Reasoning 개선 구조에 해당해요. 즉, 지각(Perception)과 행동(Action)을 통해 수집된 결과를 바탕으로 추론 능력을 계속 다듬는 구조죠.

 

이번엔 정말 AI스러운 친구를 소개할게요. 학습 에이전트는 단순히 정해진 규칙이나 목표만 따르지 않아요. 실패도 경험으로 삼고, 시간이 지날수록 더 똑똑해지는 존재예요. 말 그대로, 계속 배우고 진화하는 ‘열정 만렙 인턴’ 같은 느낌이죠!

 

이런 상황을 상상해볼게요. 한 클라우드 시스템에서 매주 월요일 오전 9시가 되면 트래픽이 확 늘어나는 현상이 반복되고 있어요. 처음엔 이걸 몰라서 서버가 종종 과부하에 걸렸는데… 학습 에이전트가 이 패턴을 알아챕니다.

“음… 매주 같은 시간대에 트래픽이 폭증하네? 그럼 다음 주엔 미리 대비해야겠다!”

이런 식으로 경험을 통해 스스로 전략을 조정하고, 다음에는 더 잘 대처할 수 있도록 진화하죠. 어제보다 나은 내일을 준비하는, AI 세계의 ‘자기계발왕’이랄까요? 😊

이미지 제공 ❘ AllAboutAI

🔹 학습 에이전트의 핵심은?

  • 환경을 관찰하고 기록해요
  • 결과를 평가해서 뭐가 잘됐는지 학습해요
  • 다음에는 더 나은 행동을 하도록 조정해요

즉, 공통 흐름 중에서도 5단계 ‘결과 반영’과 이와 연결된 성능 개선 루프가 가장 강력하게 작동하는 에이전트랍니다.

 

 

 

🌱 이 친구가 특히 활약하는 분야는? 

  • 추천 시스템: 사용자 반응을 분석해서 더 정교한 콘텐츠 추천
  • 이상 탐지 시스템: 새로운 보안 위협이나 패턴을 스스로 학습해 방어
  • 챗봇/대화형 시스템: 사용자 피드백을 바탕으로 답변 정확도 향상
  • 자율주행 시스템: 주행 경험을 축적해 더 안전한 운전 수행

✍️ 학습 에이전트를 설계할 때 주의할 점

  1. 학습할 수 있는 구조를 만들어줘야 해요
    • 입력 → 행동 → 결과 → 평가 → 개선이라는 루프를 고려해야 해요.
  2. 새로운 것과 익숙한 것 사이에서 균형을 잡아야 해요
    • A/B 테스트처럼 ‘실험’과 ‘안정성’을 동시에 챙겨야 하죠.
  3. 실패해도 다시 일어날 수 있도록 안전장치를 마련해야 해요
    • 실제 서비스에 적용할 땐 ‘롤백’ 기능이나 ‘점진적 배포’가 중요해요!

LLM 시대엔 어떻게 녹아들까? 🤖

사실 GPT나 Claude 같은 LLM은 자체적으로 계속 학습하는 구조는 아니에요. 하지만 그 위에 학습 능력을 덧붙인 다양한 기법들이 존재하죠.

  • RLHF: 사람의 피드백을 바탕으로 모델을 개선하는 학습 방식이에요.
  • RAG: 외부 정보를 참조해 더 정확한 답변을 생성하도록 학습한 구조예요.
  • Fine-tuning: 특정 도메인에 맞춰 LLM을 더 정교하게 다듬는 방식이죠.

또한, LLM을 활용한 에이전트 시스템에서는 사용자의 반응 데이터를 수집해 전략을 수정하고, 다음에 더 나은 결과를 만들어내는 방식으로도 학습 에이전트의 구조가 반영되고 있어요. 학습 에이전트의 가장 큰 장점은, 처음엔 부족하더라도 시간이 지날수록 반드시 성장한다는 거예요. 이게 바로 AI의 진짜 매력이죠. 😉


6. 계층적 에이전트(Hierarchical AI agents): 체계적인 프로젝트 매니저 📋

“복잡한 작업을 여러 층위의 하위 작업으로 분해하여 처리하는 에이전트”

🧩 이 유형은 전통적 흐름 전체(Perception–Reasoning–Action)를 계층적으로 분할해 구성한 형태예요. 각 계층이 특정 기능을 담당하며, 복잡한 시스템을 더 효율적으로 운영하게 해줘요.

 

지금까지 소개한 에이전트들이 각자 고유의 능력을 가지고 있다면, 계층적 에이전트는 이들을 조직하고 조율하는 ‘감독자’ 같은 존재예요. 복잡한 일을 한 번에 해결하긴 어려우니까, 일을 잘게 나누고 단계별로 처리하도록 설계된 구조죠.

 

마치 오케스트라 같은 구조 🎻

한 명의 지휘자가 전체를 이끌지만, 바이올린, 첼로, 드럼 등 각 파트는 자기 역할에 집중하잖아요? 계층적 에이전트도 마찬가지예요.

  • 상위 에이전트: 전체 목표와 전략을 설정
  • 중간 에이전트: 구체적인 계획을 세우고 작업을 분배
  • 하위 에이전트: 실제 행동을 수행하고 결과를 보고

복잡한 문제를 효율적으로 처리하기 위한 “조직적인 사고”와 “협업 구조”가 이 에이전트의 핵심이에요.

예를 들어볼까요? 클라우드 서비스 장애가 발생했을 때, 계층적 에이전트는 이렇게 움직여요.

이렇게 복잡한 문제를 쪼개고, 계층적으로 나누어 효율적으로 해결하는 게 강점이에요. 😌

이미지 제공 ❘ AllAboutAI

🔹 이 구조의 장점은?

  • 복잡한 작업도 체계적으로 분해해요
  • 각 계층이 자기 역할에 집중할 수 있어요
  • 전체 흐름을 유기적으로 연결할 수 있어요

공통 작동 흐름 전체를 계층적으로 쪼개어 여러 역할이 나눠 갖기 때문에, 사실상 모든 단계에서 골고루 사용되는 에이전트라고 볼 수 있어요.

 

 

 

🏗️ 주로 어디서 활용될까요?

  • 스마트 시티 시스템: 도시 전체 → 교통/에너지/보안 등 하위 영역 → 센서/제어기까지 분화
  • 자율주행 차량: 전체 경로 → 구간별 판단 → 바퀴 회전 등 세부 제어
  • 공장 자동화 시스템: 생산계획 → 라인별 작업 분배 → 로봇 실행
  • 멀티에이전트 협업 구조: 각 에이전트가 서로 다른 역할 수행 후 종합 판단

✍️ 설계할 때 기억할 것

  1. 역할과 계층 구분이 명확해야 해요
    • 누가 계획하고, 누가 실행하는지를 분명히 해야 해요.
  2. 계층 간 소통 체계가 중요해요
    • 상위 지시와 하위 피드백이 잘 연결되어야 해요.
  3. 각 계층도 학습하거나 판단할 수 있게 만들어야 해요
    • 전체 최적화뿐 아니라, 각 레벨에서도 스스로 개선할 수 있도록 구조를 설계하면 좋아요!

LLM과의 연결은 어떻게 될까요? 🤖

최근 등장한 멀티에이전트 프레임워크(CrewAI, LangGraph 등)를 보면, 계층적 구조가 그대로 녹아 있어요.

  • PM 역할을 하는 LLM: 목표 설정 및 작업 분배
  • 개별 역할을 맡은 LLM 에이전트들: 각각의 전문성에 따라 작업 수행
  • 결과 취합과 피드백 루프: 팀처럼 협업하며 문제 해결

LLM 시대에는 이렇게 역할별 LLM을 계층 구조로 배치해서 더욱 유연하고 확장성 있는 시스템을 만들고 있어요.


2부 마무리: 전통적 에이전트의 이해, 현대 AI의 미래를 밝히다 ✨

지금까지 여섯 가지 전통적인 AI 에이전트 유형을 살펴보면서, 각각의 특성과 한계, 그리고 활용 사례를 알아보았어요. 단순 반사 에이전트부터 학습 에이전트까지 이러한 전통적 분류는 단순한 과거 지식이 아니라, 현대 AI 시스템의 설계 철학과 발전 방향을 이해하는 데 핵심이 되는 기반이에요.

 

특히 2022년 ChatGPT의 등장을 기점으로, LLM 기반의 통합형 에이전트가 등장하면서 각 유형의 경계가 점차 흐려지고 있어요. 하지만 그렇다고 전통적 에이전트 구조가 사라지는 건 아니에요. 어떤 기능은 여전히 단순 반사형처럼 빠르게 반응하고, 어떤 판단은 목표나 유틸리티 기반으로 계획되며, 어떤 시스템은 계층적으로 협업해요. 그리고 그 모든 과정 속에서, 에이전트는 학습을 통해 계속 성장하고 있죠.

 

요즘 AI 시스템은 여러 전통적 에이전트의 특징이 하나로 통합된 구조로 진화하고 있어요. 그리고 그 중심에는 GPT, Claude, Gemini 같은 강력한 LLM이 자리잡고 있죠. 하지만 중요한 건, LLM이 모든 걸 해결해주는 만능은 아니라는 사실이에요. 자연어 이해와 추론에 뛰어난 LLM도, 환경을 직접 감지하거나 명확한 목표 기반의 실행을 설계하는 능력은 상대적으로 부족할 수 있어요. 그래서 요즘은 전통적 에이전트와 LLM을 결합한 하이브리드 구조가 각광받고 있어요.

 

LLM은 사고와 계획을 맡고, 전통적 방식은 실행과 피드백을 보완하는 식이죠. 예를 들어, GPT는 전략을 설계하고, 전통적 에이전트는 실제 API 호출이나 리소스 조절을 담당하는 식으로 역할을 나눌 수 있어요.

 

이처럼 전통과 혁신이 만나는 지금의 흐름 속에서, 우리가 전통적 개념을 이해하는 건 더 나은 AI 시스템 설계와 실전 적용을 위한 강력한 무기가 될 거예요. 그리고 그러한 지능형 서비스가 원활히 돌아가기 위해선, kt cloud 같은 안정적이고 유연한 인프라가 든든한 기반이 되어야겠죠. 😉

 

다음 편에서는... 📖

3부에서는 이러한 이론적 배경을 바탕으로, AI 에이전트가 실제 비즈니스 현장에서 어떻게 활용되고 있는지 살펴볼 예정이에요. 작업 자동화, 대화형 인터페이스, 정보 검색 및 분석이라는 세 가지 주요 활용 패턴을 중심으로, 각 패턴별 아키텍처와 구현 방식, 그리고 실제 사례를 자세히 알아볼게요.

 

특히 현대 LLM 기반 에이전트들이 전통적 에이전트의 한계를 어떻게 극복하고 있는지, 그리고 이를 통해 어떤 새로운 비즈니스 가치를 창출하고 있는지에 초점을 맞출 거예요. AI 에이전트의 과거와 현재를 이해함으로써, 여러분의 비즈니스가 나아갈 미래를 함께 그려보는 시간이 되었으면 해요. 🚀

 

감사합니다! 🙏


[관련/출처]

allaboutai
salesforce-what-are-ai-agents
ibm.com-ai-agents
wikipedia-Intelligent_agent