KT Cloud 72

[현장 스케치] AI와 클라우드가 그리는 미래 기술의 지도 - kt cloud가 본 CES 2025 in 라스베이거스

* 본 글은 kt cloud 임직원들의 CES 2025 참관 보고서를 바탕으로 재구성한 내용입니다.  [ kt cloud 마케팅커뮤니케이션 팀]   안녕하세요, kt cloud 마케팅커뮤니케이션팀 입니다. 🙋‍♂️"와, 미래가 정말 눈앞에 와있네요!" 지난 1월, 라스베이거스에서 열린 CES 2025 현장에서 첫 발을 내딛자마자 든 생각이에요. 특히 AI 기술이 우리 생활 곳곳에 깊숙이 스며든 모습을 보면서 정말 놀라웠답니다. 오늘은 kt cloud 참관단이 직접 보고 느낀 생생한 현장 이야기를 여러분과 함께 나누어볼까 해요.🛫 라스베이거스로의 여정라스베이거스의 1월은 늘 특별해요. 매년 전 세계의 기술 업계 종사자들이 모여드는 CES가 열리기 때문이죠. 올해도 어김없이 라스베이거스 컨벤션 센터(LV..

[News Digest] kt cloud, Cloud Native 기술력 강화를 위해 美 대표 기업 Rackspace와 협력

*본 글은 kt cloud의 보도자료를 재구성한 내용입니다.  [ kt cloud 마케팅커뮤니케이션 팀]    안녕하세요, kt cloud 마케팅커뮤니케이션팀 입니다! 😎오늘은 저희 kt cloud가 Cloud Native 기술력 강화를 위해 진행하고 있는 흥미로운 여정을 여러분과 공유하고자 해요. 특히 글로벌 클라우드 전문 기업인 Rackspace Technology와의 협력을 통해 어떤 혁신을 준비하고 있는지 자세히 살펴보도록 할게요. 🤝 반갑습니다, 우리의 새로운 파트너 랙스페이스!kt cloud가 미국의 대표적인 클라우드 관리 서비스 기업인 랙스페이스(Rackspace)와 전략적 파트너십을 맺게 되었어요. 이번 협력은 단순한 기술 제휴를 넘어 글로벌 수준의 클라우드 네이티브 역량을 확보하기 위..

[kt cloud] GPU 파워의 AI Train 고속열차 타고 AI 학습의 종착역으로

[ kt cloud AI플랫폼팀 최지우 님]   AI 기술이 빠르게 발전하면서, 인공지능 모델의 학습 과정은 그 어느 때보다 중요한 요소로 자리 잡았습니다. 그러나 대규모 데이터를 처리하고 복잡한 모델을 학습시키는 과정은 여전히 많은 기업과 개발자들에게 큰 도전 과제입니다. 제한된 리소스, 학습 속도 저하, 그리고 효율적인 자원 관리의 필요성은 AI 개발 과정에서 늘 마주하는 고민입니다. 이러한 문제를 해결하기 위해 저희 kt cloud는 AI Train 서비스가 출시했습니다. AI Train은 최신 하드웨어와 소프트웨어 최적화를 통해 복잡한 AI 모델 학습 과정을 단순화하고 가속화합니다. 이 서비스는 단순히 빠르기만 한 것이 아니라, 누구나 쉽게 활용할 수 있는 직관적인 사용자 경험까지 제공합니다. 이..

[튜토리얼] kt cloud AI로 배우는 RAG 개념 구현하기: FAISS로 시작하는 첫걸음

[ kt cloud AI플랫폼팀 최지우  님]  개요AI가 고도화되며 대규모 언어 모델(LLM)의 응답 품질과 정확도는 중요한 이슈로 떠오르고 있습니다. 그러나 LLM은 훈련 데이터에 포함된 정보만을 기반으로 작동하기 때문에, 최신 데이터나 특정 도메인에 특화된 정보 제공에는 한계가 있습니다. 이를 해결하기 위한 기술로 RAG(Retrieval-Augmented Generation)와 Vector DB가 주목받고 있습니다. 이 글에서는 RAG의 원리와 Vector DB가 어떻게 AI 모델의 응답 정밀도를 높이는지, 그리고 이를 활용해 실제 애플리케이션을 개념적으로 구성하는 방법을 다룹니다.1. RAG와 Vector Database란 무엇인가?RAG를 설명하기에 앞서 Vector DB에 대해 이해하는 것이..

[기술리포트] AI 시대 데이터센터의 게임체인저, 액침냉각 기술의 모든 것 - kt cloud의 PoC 결과까지

[ kt cloud DC동부운용센터 박지현 님 ] 데이터센터에 새로운 냉각 방식이 필요한 이유2022년 11월 출시된 미국의 인공지능 연구소 오픈AI(OpenAI)의 챗GPT(ChatGPT)로부터 촉발된 인공지능(AI) 혁명은 전 산업 분야로 확산되며 디지털 전환을 가속화하고 있습니다. AI의 학습과 추론을 위해서는 AI 가속기(AI accelerator)와 같은 스펙이 높은 하드웨어가 필요하게 되는데 하드웨어의 성능 향상에 따라 전력 요구 사항 또한 증가하고 있습니다. 장치에서 사용되는 전기 에너지는 열에너지로 변환되기 때문에 AI 인프라가 설치된 데이터센터에서는 열이 많이 발생하게 됩니다. AI 서비스 환경에 특화된 데이터센터(Data Center)에서는 기존의 냉각 방식인 공기 냉각 방식(Air C..

GPU 1,000장 모니터링 하기: NVIDIA DCGM 활용 전략

[kt cloud AI플랫폼팀 최지우 님]  GPU 1,000장 모니터링하기: NVIDIA DCGM 활용 전략 AI 플랫폼을 운영하며 수천 장의 GPU를 다루는 일은 결코 단순하지 않습니다. 서버 수가 늘어날수록 관리와 모니터링의 복잡도도 기하급수적으로 증가하고, 그만큼 예상치 못한 문제가 발생할 가능성도 커집니다. 특히 AI 플랫폼을 통해 수많은 고객에게 안정적인 서비스를 제공하려면 GPU 서버의 상태와 성능을 지속적으로 모니터링하는 것이 필수적입니다. 그러나 서버 수가 수백 대에 이르면, 각 GPU의 상태를 일일이 확인하는 것은 사실상 불가능에 가깝습니다. kt cloud에서는 AI Train, AI SERV 등 GPU 서버를 제공하는 서비스들에서 수천 장의 GPU를 제공하고 있습니다. 저희는 AI ..

[kt cloud] 2024년 Front-end 개발 트렌드를 돌아보며: 클라우드와의 조화

[kt cloud 마케팅커뮤니케이션팀 김지웅 님]   Introduction: 프론트엔드 개발의 변곡점클라우드와 프론트엔드 개발의 변화2024년은 프론트엔드 개발에 있어 중요한 변곡점이 된 해였습니다. 기존의 전통적인 프론트엔드 개발 방식에서 벗어나 클라우드 기술과의 연결이 더욱 깊어지면서, 개발자들에게 새로운 기회를 제공하고 있습니다. 클라우드와 프론트엔드 개발의 융합은 단순히 서버리스 아키텍처와 API 중심 설계에 그치지 않고 성능, 확장성, 그리고 보안 측면에서 폭넓은 영향을 미쳤습니다. 클라우드 네이티브 기술의 도입으로 자동 확장성과 자원 효율성이 프론트엔드 개발에 적용되면서 프론트엔드 팀은 백엔드 의존도를 줄이면서도 더 빠르고 유연한 개발을 진행할 수 있게 되었습니다. 특히 클라우드 네이티브 ..