[AI활용] AI Portal부터 보안관제까지, kt cloud AI 내재화 3가지 사례

Tech Story/AI Cloud

[AI활용] AI Portal부터 보안관제까지, kt cloud AI 내재화 3가지 사례

 

 
[ kt cloud AI사업개발팀 정소라 님 ]

📋 요약

이 글에서는 kt cloud가 사내 업무에 AI를 적용해 업무 효율과 관제 품질을 개선한 내재화 사례를 다룹니다.

실제 운영 환경에서 AI 도입 효과를 검증하고 확산하기 위한 실무 방향을 정리합니다.

#ktcloud #AI내재화 #RAG #MCP #보안관제

 


"우리가 먼저 써봤습니다"

AI 플랫폼을 만드는 회사가 정작 자기 업무에는 AI를 쓰지 않는다면, 그 플랫폼을 얼마나 신뢰할 수 있을까요?

 

kt cloud는 고객에게 플랫폼을 제안하기 전에, 사내 업무에 먼저 AI를 적용해보는 원칙을 세웠습니다. "Dog-fooding"이라고도 부르는 이 접근법을 통해, 실제 업무 환경에서 마주치는 문제를 직접 겪고, 해결하고, 개선한 경험을 축적했습니다.

 

이 글에서는 kt cloud가 사내에서 직접 구축하고 운영 중인 세 가지 AI 내재화 사례를 공유합니다. 단순한 기술 소개가 아니라, 각 사례가 어떤 Pain-Point에서 출발했고, 어떤 아키텍처를 선택했으며, 어떤 수치로 성과를 확인했는지를 있는 그대로 보여드리겠습니다.


[AI활용] AI Portal부터 보안관제까지, kt cloud AI 내재화 3가지 사례

사례 1: AI Portal — 산재된 지식을 질문 하나로

Pain-Point: "그거 누구한테 물어봐야 해요?"

조직이 커지면 지식도 함께 흩어집니다. kt cloud도 예외가 아니었습니다.

Jira/Wiki에는 프로젝트 히스토리가, Salesforce에는 고객 정보가, 사내 문서 서버에는 각종 규정과 매뉴얼이 따로 존재했습니다. 조직별·목적별 업무 시스템이 다양하다 보니, 사내에 정형/비정형 데이터가 곳곳에 산재해 있었고 일반 및 법무 지식 관련 유관부서에는 반복 질의로 인한 업무 부하가 발생하고 있었습니다.

목적: 단일 검색창에서 끝내는 업무 혁신 포털

목표는 명확했습니다. 단일 검색창에서 한번에 조회하고, 복잡한 정보 취합 업무를 질문 하나로 끝낼 수 있는 업무 혁신 포털을 구현하는 것. 동시에, 이 프로젝트를 사내 업무 AI 문화를 정착시키는 계기로 활용하고자 했습니다.

아키텍처: 3-Layer 구조

AI Portal은 세 개의 레이어로 구성됩니다.

  • Data Sources (Indexing Pipeline) 레이어에서 Jira/Wiki, Salesforce, 사내 문서 등 분산된 데이터 소스를 사전 인덱싱 파이프라인으로 수집합니다. 여기서 핵심은 "사전 인덱싱"입니다. 질의 시점에 문서를 검색하는 것이 아니라, 미리 문서를 파싱하고 벡터화해두어 실시간에 가까운 응답 속도를 확보했습니다.
  • Application (Docker/VM) 레이어에서는 LangGraph 기반의 AI-Portal Core가 Slack Bot과 Vector DB를 연동하여 사용자의 질의를 처리합니다. LangGraph를 선택한 이유는, 단순 Q&A를 넘어 여러 데이터 소스를 순차적으로 탐색하는 복잡한 워크플로우를 그래프 구조로 유연하게 설계할 수 있기 때문입니다.
  • LLM Layer에서는 Solar Pro 2와 GPT-4o를 병행 운용합니다. 법무 문서처럼 Text-Heavy하고 한국어 특화가 필요한 영역에서는 Solar Pro 2가 GPT-4o(멀티모달) 대비 출력 답변이 풍부하면서도 80% 이상 비용이 저렴한 이점이 있어, RAG 성격에 따라 모델을 선택적으로 활용하고 있습니다.

프로젝트 성공 요소

이 프로젝트에서 특히 효과가 컸던 세 가지 포인트가 있습니다.

첫째, 구현하고자 하는 RAG 성격을 고려한 AI 모델 선정입니다. 모든 질의에 하나의 모델을 쓰는 것이 아니라, 법무 문서 특성(Text-Heavy, 한국어 특화 필요)에 맞춰 GPT-4o 대비 Solar Pro 2가 더 적합한 영역을 구분했습니다.

 

둘째, 검색 성능 향상을 위한 사전 Indexing Pipeline 구축입니다. RAG의 품질은 "얼마나 좋은 문서를 검색하느냐"에 80%가 달려 있습니다. 문서 파싱 품질과 인덱싱 전략에 충분한 시간을 투자한 것이 결정적이었습니다.

 

셋째, 평가 프레임워크를 먼저 설계하고 프로젝트 과정에서 RAG 품질을 지속 향상시킨 것입니다. "좋아진 것 같다"가 아니라, 정량적 지표로 개선을 추적할 수 있는 구조를 초기부터 갖춘 것이 품질 안정화에 크게 기여했습니다.

성과

"작년 3분기 A프로젝트 예산 집행 현황과 담당자 연락처"처럼, 예전이라면 여러 시스템을 뒤지고 담당자에게 물어봐야 했을 복잡한 질의를 단일 검색으로 해결할 수 있게 되었습니다.

 

가장 의미 있는 변화는 문화적 전환입니다. "AI Portal에 물어보세요"가 조직 내 표준 프로세스로 자리잡으면서, AI가 특별한 기술이 아닌 일상 업무 도구로 인식되기 시작했습니다.


[AI활용] AI Portal부터 보안관제까지, kt cloud AI 내재화 3가지 사례

사례 2: AI 보안관제 — MCP 기반 자동화

Pain-Point: SPL의 벽

보안관제 업무의 핵심은 방대한 보안 장비 로그에서 공격 이벤트를 신속하게 탐지하고 분석하는 것입니다. kt cloud 보안관제팀도 이를 위해 Splunk를 활용하고 있었지만, 근본적인 병목이 있었습니다.

 

Splunk의 검색 언어인 SPL(Search Processing Language)의 작성 난이도가 높아, 전문 인력 역량에 대한 의존도가 지나치게 컸습니다. 초급 관제 요원은 복잡한 SPL 쿼리를 직접 작성하기 어려워 관제 업무에 제한이 있었고, 반복적인 이벤트 분석 업무로 숙련자들의 피로도도 증가하고 있었습니다.

목적: 자연어로 보안 로그를 직접 다루는 환경 구현

MCP(Model Context Protocol) 서버 기반으로 AI와 Splunk를 직접 연동하여, 관제 요원이 자연어로 보안 로그를 조회·분석·가공할 수 있는 환경을 구현하고 보안관제 업무를 자동화하는 것이 목표였습니다.

아키텍처: 관제 요원 → Claude → MCP → Splunk

AI 보안관제 시스템의 흐름은 직관적입니다.

관제 요원이 자연어로 질의를 입력하면, Claude Agent가 의도를 파악합니다. 이 질의는 직접 개발한 MCP Server를 통해 Splunk가 이해할 수 있는 SPL 쿼리로 변환되어 실행됩니다. Splunk가 반환한 결과를 다시 Claude Agent가 분석하여 관제 요원에게 인사이트를 제공합니다.

 

여기서 핵심은 MCP Server를 직접 개발했다는 점입니다. 범용 연동 도구가 아니라, 보안관제 업무의 맥락을 이해하는 전용 프로토콜 서버를 구축하여 질의-실행-분석의 전 과정을 하나의 파이프라인으로 연결했습니다.

AS-IS vs. TO-BE: 무엇이 달라졌나

공격 이벤트 대응 측면에서, 기존에는 관제자가 복잡한 SPL 쿼리를 직접 작성하고 수동으로 IP를 입력해야 했습니다. 이제는 AI가 자동으로 Splunk를 검색하고 분석 결과를 제공합니다.

 

위협 차단 추천 측면에서, 기존에는 차단이 필요한 IP를 단순 추천하는 수준이었지만, 이제는 AI가 전반적인 관제 로그와 평판 데이터를 종합 분석하여 근거 기반의 차단 제안을 합니다.

 

이력 기반 분석 측면에서, 기존에는 이전에 유사 공격이 있었는지 확인하려면 별도로 분석을 요청해야 했지만, 이제는 과거 관제 이력을 자동으로 조회하고 분석 결과를 함께 제공합니다.

성과

가장 직접적인 변화는, 관제 요원이 복잡한 SPL을 몰라도 즉시 보안 분석이 가능해졌다는 것입니다. "최근 1시간 내 로그인 실패 5회 이상 IP 조회"와 같은 자연어 명령만으로 이전에는 숙련자만 수행할 수 있었던 분석이 가능해졌습니다.


[AI활용] AI Portal부터 보안관제까지, kt cloud AI 내재화 3가지 사례

사례 3: AI 장애관제 — 정량적 품질 관리

Pain-Point: 숙련도에 따른 대응 품질 편차

Cloud 통합관제팀의 핵심 미션은 장애 발생 시 정확하고 신속하게 대응하는 것입니다. 그런데 현실적으로, 대응 품질은 관제 요원의 숙련도에 크게 좌우되고 있었습니다.

 

숙련자는 과거 유사 사례를 기억에서 끌어내 빠르게 판단하지만, 미숙련자는 유사 장애 사례를 검색하고 대응 가이드를 찾는 데만 상당한 시간이 걸렸습니다. 대응 가이드가 여러 곳에 산재되어 있어 일관성도 부족했습니다.

목적: 관제 품질의 정확도와 신속성 상향 평준화

RAG를 활용해 관제 및 장애 대응 품질(정확도 & 신속성)을 높이는 것이 목표였습니다. 단순히 AI를 붙이는 것이 아니라, 품질을 정량적으로 측정하고 개선할 수 있는 체계를 함께 구축하는 것에 방점을 두었습니다.

아키텍처: User Story 기반 5단계 워크플로우

AI 장애관제 시스템은 실제 관제 요원의 업무 흐름(User Story)을 그대로 반영하여 설계했습니다.

 

상황 인지 단계에서는 과거 유사 상황 발생 여부나 공유가 필요한 장애 상황인지를 파악합니다. 상황 공유 단계에서 유사 이벤트 상황과 해당 원인을 파악하여 대응 예시를 상황반에 공유합니다. 상황 판단/대응 단계에서는 유사 사례에서 장애 전환 이력을 찾아 비교 분석하고 대응 내용을 출력·판단합니다. 이상 징후/장애 공지 단계에서 과거 동일 장애 공지 대상 및 메시지 양식을 활용합니다. 최종적으로 장애 대응 단계에서 장애 등급 상향 전환 판단에 필요한 보조 정보를 제공합니다.

 

각 단계에서 RAG가 유사 사례를 탐색하고, 대응 가이드를 추천하며, 과거 이력을 기반으로 판단을 보조합니다.

정량적 평가: 모의훈련 시나리오

이 사례에서 가장 차별화된 부분은 정량적 평가 체계입니다. RAG 활용 전/후의 통합 관제 품질을 객관적으로 비교하기 위해, 모의훈련 시나리오를 수립하고 숙련자와 미숙련자의 역량 차이를 정량적으로 평가했습니다.

 

Test Case(시나리오)로는 관제 시스템에서 Down Event 발생, NW(네트워크) 장애 발생, 관제 WEB에서 이벤트 수집 불가 발생, Cloud 콘솔 접속 불가 VoC 인입 등 실제 빈번하게 발생하는 상황을 선정했습니다.

 

주요 평가 항목은 세 가지입니다. 영향도 파악 정확도(장애 영향 범위 기재 정확도, 시스템/서비스/관제 범위 구분), 공지 문구 적절성(공지 등급 정확도, 문구의 명확도 및 표현 적절성), 대응 부서/방안 명확도(컨콜 그룹 및 대체 관제방안 명확도)로 구성하여 단순히 "답을 맞혔는가"를 넘어 실무 대응 품질 전반을 평가합니다.

성과

숙련자와 미숙련자 간 응답 정확도 격차가 큰 폭으로 감소했습니다. 이는 RAG가 경험의 격차를 상당 부분 보완해줄 수 있음을 의미합니다. 1~3년 차 이하의 미숙련자 그룹은 RAG 사용 후 점수가 폭발적으로 상승(+23~24%)하여, RAG 시스템이 '저연차/미숙련자의 업무 상향 평준화'에 확실하게 기여하고 있음을 확인할 수 있었습니다.


세 가지 사례에서 얻은 교훈

[AI활용] AI Portal부터 보안관제까지, kt cloud AI 내재화 3가지 사례

세 가지 사례를 직접 운영하면서 얻은 공통된 교훈이 있습니다.

첫째, 평가 체계가 먼저입니다. AI를 도입하기 전에 "무엇을 어떻게 측정할 것인가"를 정의해야 합니다. AI Portal의 검색 시간 단축율, 보안관제의 AS-IS vs. TO-BE 비교, 장애관제의 모의훈련 평가 — 모두 정량적 지표가 있었기에 개선을 추적하고 의사결정을 내릴 수 있었습니다.

 

둘째, 기존 업무 흐름에 녹이는 것이 핵심입니다. AI Portal은 Slack에, 보안관제는 기존 Splunk 워크플로우에, 장애관제는 관제 요원의 User Story에 자연스럽게 통합했습니다. 별도의 새로운 시스템이 아니라, 이미 익숙한 환경 위에 AI를 얹는 것이 채택률을 높이는 가장 확실한 방법이었습니다.

 

셋째, 모델 선택은 용도에 따라 달라져야 합니다. 모든 곳에 가장 비싼 모델을 쓸 필요도, 하나의 모델로 통일할 필요도 없습니다. RAG 특성과 한국어 요구사항에 따라 Solar Pro 2, GPT-4o, Claude를 적재적소에 배치한 것이 비용 효율과 성능을 동시에 확보하는 열쇠였습니다.

 

kt cloud는 이러한 사내 경험을 바탕으로, AI Foundry 플랫폼을 통해 동일한 성과를 고객 환경에서도 재현할 수 있도록 지원하고 있습니다.

 

kt cloud 플랫폼 바로가기

❓ 자주 묻는 질문 (FAQ)

Q. AI 장애관제의 품질은 어떻게 측정하나요?
A. RAG 활용 전/후 관제 품질을 비교할 수 있도록 모의훈련 시나리오(시스템 Down Event, 네트워크 장애, 이벤트 수집 불가, Cloud 콘솔 접속 불가 VoC 등)를 수립하고, 영향도 파악 정확도, 공지 문구 적절성, 대응 방안 명확도 등의 평가 항목으로 숙련자와 미숙련자의 관제 대응 정확도를 정량적으로 비교 평가합니다. 도입 후 숙련도 간 응답 정확도 격차가 40% 감소했습니다.

📚 관련/출처