AI 전환의 가속화, 이제는 계획보다 '실행'이 중요한 시점입니다. kt cloud는 기술과 인프라, 생태계 전반에서 실질적인 변화를 주도하며 그 해답을 제시하고 있습니다. 이번 11월 호에서는 국내 최초 리퀴드 쿨링(Liquid Cooling) 기술이 도입된 '가산 AI 데이터센터' 개소 소식과 함께, 오픈소스 서밋에서 공개된 차세대 플랫폼 NEXT의 청사진을 공유합니다. 더불어 AI 도입을 고민하는 분들을 위해 산업별 적용 트렌드와 RAG 성능을 극대화하는 청킹(Chunking) 전략까지, 현장에 즉시 적용 가능한 인사이트를 꽉 채워 담았습니다. kt cloud와 함께 AI 시대의 가장 앞선 변화를 확인해 보세요.⚡ |
국내 최초 리퀴드 쿨링 상용화! '가산 AI 데이터센터'가 열어갈 AI 인프라의 미래 |
AI 연산 규모가 커질수록, 데이터센터의 '열 관리'는 선택이 아닌 필수 생존 전략이 되었습니다. kt cloud가 국내 상업용 데이터센터 최초로 리퀴드 쿨링(Liquid Cooling, 액체 냉각) 기술을 도입한 '가산 AI 데이터센터'를 개소하며 그 해답을 제시했습니다.
가산 AI 데이터센터는 단순히 서버를 보관하는 공간을 넘어, 초거대 AI 시대를 위한 전초기지입니다. B200 등 최신 GPU 서버 환경을 직접 테스트하고 자체 검증까지 완료하여, 고집적 서버 운영에 최적화된 안정성을 보장합니다. 여기에 수도권 8개 센터를 연결하는 100G급 네트워크까지 더해져 대규모 AI 연산도 안정적으로 수행할 수 있습니다.
다음 달 개소 예정인 AI Innovation Center에서는 리퀴드 쿨링을 포함한 다양한 에너지 절감 기술을 실증하고, 상용화 가능한 수준으로 고도화해 기업 고객이 실제 운영 환경에서 적용할 수 있도록 지원할 계획입니다. kt cloud는 이번 가산 AI 데이터센터를 시작으로 총 500MW 이상의 AI 인프라를 확보하며, 여러분의 비즈니스가 AI 시대로 나아가는 가장 안정적인 기반이 되겠습니다.
|
‘오픈소스 서밋 코리아 2025’ 현장: 쿠버네티스와 오픈스택의 결합, 차세대 플랫폼 'NEXT'의 청사진을 공개하다 |
글로벌 오픈소스 축제인 '오픈소스 서밋 코리아 2025'가 한국에서 처음 열렸습니다. kt cloud는 주요 후원사로 참여해 기술 기업으로서의 미래 비전을 공유했습니다.
키노트 무대에 오른 kt cloud 안재석 기술본부장은 AI 시대에 걸맞은 새로운 인프라 표준을 제시했습니다. 쿠버네티스와 오픈스택을 새로운 방식으로 결합한 ‘NEXT’는 AI 네이티브 인프라 환경을 위한 구조적 혁신을 담고 있으며, VM과 컨테이너 서비스를 하나의 통합 플랫폼에서 운영할 수 있도록 설계된 것이 특징입니다. 이날 발표에서는 ‘NEXT’의 구조와 함께, 파트너사와 협력 개발 중인 'AI Foundry’의 방향성도 공유하며 kt cloud의 기술 리더십을 강조했습니다.
kt cloud는 앞으로도 오픈소스 생태계에 적극 기여하며, 개방과 공유를 통해 클라우드 기술의 진보를 이끌겠습니다. |
🔎 오픈소스 서밋 부스에서 공개한 미니 챗봇 구축기 보러 가기 |
성과와 성장의 선순환, kt cloud ’코칭문화 확산 우수기관상’ 수상 |
kt cloud가 한국코치협회 ‘코칭문화 확산 우수기관상’을 수상했습니다. 코칭 기반 리더십 강화와 1on1 제도를 중심으로 성과와 성장이 선순환하는 조직문화를 구축해 온 노력이 대외적으로 인정받은 결과로, 구성원의 자발적 참여를 바탕으로 한 문화적 변화가 높게 평가되었습니다.
kt cloud는 ‘퍼포먼스 1on1’과 ‘그로스 1on1’ 운영을 비롯해 KAC 자격 취득 지원, 뉴리더 온보딩 프로그램 등 현장 중심의 리더십 교육 체계를 꾸준히 확장해 왔습니다. 또한 KAC 모의고사 앱, 코칭 스파링, DISC 진단 시스템 등 주요 도구를 내부에서 직접 개발해 구성원이 실제로 체감할 수 있는 성장 경험을 제공하고 있습니다.
조직문화와 리더십 실행력의 강화는 빠르게 변화하는 산업 환경에서 기업 경쟁력을 높이는 핵심 기반입니다. kt cloud는 앞으로도 구성원의 성장을 적극 지원하고 리더십 역량을 고도화해, 업계를 선도하는 조직문화를 지속적으로 만들어갈 예정입니다. |
"문서도 완벽하고 임베딩도 끝냈는데, 왜 답변 품질은 기대 이하일까?" RAG를 구축해 본 실무자라면 누구나 한 번쯤 마주하는 질문입니다. 이번 RAG 시리즈 3편에서는 성능 저하의 숨은 원인, 바로 청킹(Chunking) 전략을 파헤칩니다.
아무리 파싱이 잘 된 데이터라도, 문서를 쪼개는 기준(Chunking)이 어긋나면 문맥이 끊기고 정보가 섞여버립니다. 이는 곧 nDCG, Recall, Precision 같은 핵심 지표의 하락으로 직결되죠.
이번 글에서는 고정 길이·의미 기반·구조 기반 청킹 전략을 비교하며, 청크 크기와 오버랩이 검색 정확도와 비용·지연에 어떤 차이를 만드는지 핵심만 짚어 정리했습니다. 특히 텍스트뿐만 아니라 복잡한 표나 코드 블록이 섞인 문서를 어떻게 처리해야 정보 손실을 막을 수 있는지, 구체적인 실무 노하우를 담았습니다.
여러분의 RAG를 한 단계 업그레이드할 '청킹의 기술', 지금 바로 확인해 보세요. |
AI PoC는 성공했지만 조직의 업무 방식은 달라지지 않는 현상, 많은 기업이 같은 문제를 겪고 있습니다. 이번 트렌드 리포트에서는 AX 전환의 현실적 난제부터 산업별로 실제 현장에서 벌어지고 있는 AI 활용 방식까지, 지금 기업들이 반드시 짚어야 할 변화를 정리했습니다. 기술보다 운영이 중요한 시대, AI 활용은 중요한 전환점을 맞이하고 있으며 기업은 어떤 구조로 이를 업무에 녹여낼지 다시 생각해야 합니다.
kt cloud 역시 내부에서 AI를 실제 업무에 적용하고, 반복되는 정보 탐색과 운영 프로세스를 개선해 나가며 AX를 조직의 일상으로 만드는 방식을 실험하고 있습니다. 이러한 내부 경험을 바탕으로, 이번 보고서는 ‘실제로 변화를 만드는 AX 전략이 무엇인지’에 대해 압축적이고 실질적인 인사이트를 담았습니다. |
액침냉각 기술의 현재와 미래 AI 데이터센터 냉각 트렌드 |
AI 모델이 고도화될수록 GPU는 더 많은 열을 발생시키고 있습니다. Blackwell 1,400W에서 2032년 Post-Feynman 15,360W까지, 열 부하는 기하급수적으로 증가하고 있으며, 냉각 기술이 이를 따라가지 못하면 어떤 AI도 안정적으로 동작하기 어렵습니다. 이번 글에서는 Direct-to-chip을 넘어, Feynman 세대부터 본격 상용화가 예고된 액침냉각 기술을 중심으로 데이터센터 냉각이 지금 ‘게임 체인저’로 불리는 이유를 정리했습니다.
또한 글로벌 테크 기업들이 제시하는 액침냉각 시스템 요구사항, 주요 솔루션 업체들의 기술 경쟁, 그리고 상용화를 앞두고 남은 마지막 과제들까지 함께 살펴봅니다. AI 시대의 데이터센터가 왜 더 이상 공랭식만으로는 버틸 수 없는지, 그리고 앞으로 어떤 냉각 기술이 표준이 될지 궁금하다면 이번 내용을 꼭 확인해보세요. |
📘 이달의 키워드 [청킹] 청킹(Chunking)은 방대한 데이터를 AI가 가장 잘 이해하고 검색할 수 있도록 '최적의 의미 단위'로 재구성하는 기술입니다. 단순히 문서를 자르는 것이 아니라, 문맥과 구조, 의도에 맞춰 데이터를 정교하게 설계하는 과정이죠. RAG 시스템에서 청킹은 답변의 정확도, 응답 속도, 비용 효율을 결정짓는 핵심 변수입니다. 특히 법률·금융·의료 등 복잡한 전문 문서를 다루는 기업에게, 청킹 역량은 곧 AI 경쟁력의 척도가 됩니다. |
|