[AI요약] 현재 AI 컴퓨팅 작업이 여러 서버에서 동시에 작동하기 위해서는 수천 개의 칩이 요구되는 가운데 엔비디아와 마이크로소프트가 초대형 ‘AI 슈퍼컴퓨터’ 구축을 위한 협력에 들어갔다. 이번 협력을 통해 인해 애저는 엔비디아 전체 AI 스택을 통합하는 최초의 퍼블릭 클라우드가 되며, 엔비디아는 전체 제품군에 애저의 인프라를 강화할 전망이다.
16일(현지시간) 로이터통신, 지디넷 등 외신에 따르면 미국 칩 메이커이자 컴퓨팅 기업인 엔비디아와 소프트웨어 기업 마이크로소프트가 초대형 클라우드 인공지능(AI) 컴퓨터 구축을 위한 협력에 들어갔다.
두 기업은 클라우드에 집중적인 AI 컴퓨팅 작업 처리를 위한 슈퍼컴퓨터를 구축하기 위해 손을 잡았다. 이번 협력을 통해 향후 AI 컴퓨터는 수만 개의 그래픽 처리 장치(GPU), 엔비디아의 가장 강력한 H100 및 A100 칩을 활용해 마이크로소프트의 애저(Azure) 클라우드에서 작동이 가능하게 된다.
이번 협력으로 인해 애저는 엔비디아 전체 AI 스택(GPU, 네트워킹 및 AI 소프트웨어)을 통합하는 최초의 퍼블릭 클라우드가 됐다. 이는 애저 사용자들이 앞으로 애저에 최적화된 엔비디아의 전체 AI 워크플로우 및 소프트웨어 개발 키트 스택에 액세스할 수 있다는 의미다.
또한 엔비디아가 전체 제품군으로 애저의 인프라를 강화함으로써 더 많은 기업이 최신 모델이 포함된 AI를 교육, 배포 및 확장할 수 있을 것으로 기대되고 있다.
엔비디아는 이번 마이크로소프트와의 거래 가치가 어느 정도의 규모인지는 밝히지 않았지만, A100 칩의 가격은 약 1000~12000달러(약 1300~1600만원)이며 H100 칩은 이보다 훨씬 가격이 비싼 것으로 알려졌다.
엔비디아는 마이크로스프트에 칩을 판매하는 것 외에도 AI 모델을 위한 소프트웨어 및 클라우드 개발에도 협력할 예정이다. 여기에는 마이크로소프트의 딥스피드 및 딥러닝 소프트웨어 최적화를 위한 협력이 포함돼 있다.
이번 협력으로 애저가 초당 400기가비트의 속도를 가진 쿼텀2 인피니밴드(Quantum-2 InfiniBand) 네트워킹 기술을 사용하는 최초의 퍼블릭 클라우드로 거듭나게 되면, 해당 네트워킹 기술이 서버를 고속으로 연결할 수 있을 전망이다.
현재 ‘무거운’ AI 컴퓨팅 작업이 여러 서버에서 동시에 작동하기 위해서는 수천 개의 칩이 요구되는 만큼 두 기업의 이번 협력은 의미가 크다.
또한 자연어 처리에 사용되는 AI 모델의 급속한 성장으로 더 빠르고 강력한 컴퓨팅 인프라에 대한 수요도 급증하는 추세다. 자연어는 사람들이 일상적으로 쓰는 언어를 인공적으로 만들어진 언어인 인공어와 구분하여 부르는 개념으로, 컴퓨터 환경에서 자연어를 이해하고 모방하는 것은 AI 분야의 연구 목표 중 하나로 평가받고 있다.
이안 벅 엔비디아 하이퍼스케일 및 HPC 총괄 담당 부사장은 “현재 AI가 기업에 도입된 후 고객이 이를 비즈니스에 활용할 수 있도록 AI 서비스를 제공하는 변곡점에 도달해 있다”며 “AI 활용의 광범위한 비전은 엔터프라이즈 활용을 위한 AI 적용 필요성을 강조하고 있다”고 밝혔다.
마누비르 다스 엔터프라이즈 컴퓨팅 부사장은 성명서를 통해 “AI 기술의 발전과 업계 채택이 가속화되고 있다”며 “AI 기술은 새로운 연구 촉발, 스타트업 육성, 엔터프라이즈 애플리케이션을 가능하게 했다”고 이번 협력을 의미를 설명했다.
소셜댓글