👨‍💻 Tech Story/AI Cloud 9

[kt cloud] GPU 파워의 AI Train 고속열차 타고 AI 학습의 종착역으로

[ kt cloud AI플랫폼팀 최지우 님 ]   AI 기술이 빠르게 발전하면서, 인공지능 모델의 학습 과정은 그 어느 때보다 중요한 요소로 자리 잡았습니다. 그러나 대규모 데이터를 처리하고 복잡한 모델을 학습시키는 과정은 여전히 많은 기업과 개발자들에게 큰 도전 과제입니다. 제한된 리소스, 학습 속도 저하, 그리고 효율적인 자원 관리의 필요성은 AI 개발 과정에서 늘 마주하는 고민입니다. 이러한 문제를 해결하기 위해 저희 kt cloud는 AI Train 서비스가 출시했습니다. AI Train은 최신 하드웨어와 소프트웨어 최적화를 통해 복잡한 AI 모델 학습 과정을 단순화하고 가속화합니다. 이 서비스는 단순히 빠르기만 한 것이 아니라, 누구나 쉽게 활용할 수 있는 직관적인 사용자 경험까지 제공합니다. ..

[튜토리얼] kt cloud AI로 배우는 RAG 개념 구현하기: FAISS로 시작하는 첫걸음

[ kt cloud AI플랫폼팀 최지우  님 ]  개요AI가 고도화되며 대규모 언어 모델(LLM)의 응답 품질과 정확도는 중요한 이슈로 떠오르고 있습니다. 그러나 LLM은 훈련 데이터에 포함된 정보만을 기반으로 작동하기 때문에, 최신 데이터나 특정 도메인에 특화된 정보 제공에는 한계가 있습니다. 이를 해결하기 위한 기술로 RAG(Retrieval-Augmented Generation)와 Vector DB가 주목받고 있습니다. 이 글에서는 RAG의 원리와 Vector DB가 어떻게 AI 모델의 응답 정밀도를 높이는지, 그리고 이를 활용해 실제 애플리케이션을 개념적으로 구성하는 방법을 다룹니다.1. RAG와 Vector Database란 무엇인가?RAG를 설명하기에 앞서 Vector DB에 대해 이해하는 것..

GPU 1,000장 모니터링 하기: NVIDIA DCGM 활용 전략

[kt cloud AI플랫폼팀 최지우 님]  GPU 1,000장 모니터링하기: NVIDIA DCGM 활용 전략 AI 플랫폼을 운영하며 수천 장의 GPU를 다루는 일은 결코 단순하지 않습니다. 서버 수가 늘어날수록 관리와 모니터링의 복잡도도 기하급수적으로 증가하고, 그만큼 예상치 못한 문제가 발생할 가능성도 커집니다. 특히 AI 플랫폼을 통해 수많은 고객에게 안정적인 서비스를 제공하려면 GPU 서버의 상태와 성능을 지속적으로 모니터링하는 것이 필수적입니다. 그러나 서버 수가 수백 대에 이르면, 각 GPU의 상태를 일일이 확인하는 것은 사실상 불가능에 가깝습니다. kt cloud에서는 AI Train, AI SERV 등 GPU 서버를 제공하는 서비스들에서 수천 장의 GPU를 제공하고 있습니다. 저희는 AI ..

NPU로 sLM 서빙하기: 새로운 가능성 탐구

[kt cloud AI플랫폼팀 최지우 님]  NPU로 sLM 서빙하기: 새로운 가능성 탐구 AI 기술이 발전함에 따라, AI 모델의 효율적인 배포와 운영을 위한 새로운 처리 장치도 개발되고 있습니다. 이 과정에서 NPU(Neural Processing Unit)라는 새로운 주자가 등장했습니다. NPU는 인공 신경망 연산을 위해 특별히 설계된 프로세서로, 기존의 GPU(Graphics Processing Unit)와는 다른 방식으로 AI 워크로드를 처리합니다.NPU는 대규모 병렬 처리를 가능하게 하며, 특히 신경망 연산에 최적화되어 있습니다. 이로 인해 NPU는 적은 전력으로 높은 성능을 낼 수 있습니다. AI 모델의 학습과 추론 과정에서 NPU는 더욱 효율적인 데이터 흐름과 메모리 관리로 성능을 크게 향..

AMD MI250 GPU로 vLLM 최적화 하기 (feat. AI SERV)

[kt cloud AI플랫폼팀 최지우 님]    AMD MI250 GPU로 vLLM 최적화하기 최근 대규모 언어 모델(LLM)의 발전과 함께 인공지능 연구 및 상용화 과정에서 GPU의 수요가 급격히 증가하고 있습니다. 특히, NVIDIA는 이 분야에서 시장을 주도하며 AI 연산에 필수적인 GPU 기술을 제공하고 있지만, 수요에 비해 공급이 부족하고 가격이 높아지는 문제가 발생하고 있습니다. 이러한 상황에서 많은 기업과 연구 기관들은 더 경제적이면서도 성능이 뛰어난 대안을 모색하고 있습니다.그 중 하나가 vLLM 프로젝트입니다. vLLM은 LLM 추론 및 제공을 위한 빠르고 사용하기 쉬운 라이브러리입니다. PagedAttention을 이용하여 Key-Value(KV) Cache가 저장되는 메모리를 blo..

[K2P&HAC] 초거대 AI 활용을 위한 Hyperscale AI Computing과 Container 서비스

최근 AI가 모든 산업에 적용되면서 AI 모델은 점차 대형화되고 있고, 그로 인해 대규모 데이터 분석을 가능하게 하는 GPU 컴퓨팅 시장이 성장하고 있습니다. 기업은 머신러닝 및 딥러닝을 위한 GPU 수요가 증가하고 있지만, 설치비용, 운영비용, 주문&설치기간 등을 고려할 때 Cloud를 활용하여 GPU를 사용할 수 있는 GPUaaS(GPU-as-a Service) 활용이 증가하고 있는데요. 세계적으로 Cloud 전환이 가속화되고, 비디오 편집, 그래픽 디자인, 이미지 처리 등 고성능 컴퓨팅에 대한 수요가 증가함에 따라 GPUaaS 기술의 시장 전망은 2025년까지 연평균 38% 성장하여 약 71억 달러 규모로 성장할 것으로 예상됩니다. 이처럼 GPUaaS 시장 전망을 보면 AI 기술은 매년 꾸준히 발달..

kt cloud 봇과 함께 클라우드와 가까워지세요!

KT Cloud봇 소개 배경 AI 기술의 발달로 챗봇 시장이 확대 되고, VOC를 효율적으로 처리하고자 하는 사업자의 Needs가 있습니다. 또한, 코로나 사태로 인해 비대면 서비스가 확대되면서 챗봇 서비스에 대한 수요가 증가하고 있는데요. KT Cloud 고객의 궁금증에 대해 빠르고 편리하게 안내하고, Cloud 고객센터는 단순VOC 처리를 자동화하여 효율적으로 고객을 응대할 수 있는 KT Cloud 챗봇을 소개하고자 합니다! KT Cloud 챗봇, "클라우드톡"이란? KT는 Cloud 고객의 궁금증을 바로 해결해 줄 수 있는 챗봇, “클라우드톡”을 1월 28일에 오픈 했습니다. KT 클라우드 포탈 (https://cloud.kt.com) 에서 클라우드톡을 만나볼 수 있으며, KT Cloud 서비스의 ..