AI model training requires tens of thousands of GPUs. Tesla CEO Elon Musk said on his social media platform. Musk recently told investors that his artificial intelligence startup xAI plans to build a supercomputer to run the next version of its AI chatbot Grok. Dell's CEO Michael Dell also posted separately on his social media. He said that training AI models like xAI's Grok requires tens of thousands of power-hungry chips, which are in short supply. Earlier this year, Musk said that training the Grok 2 model would require about 20,000 Nvidia H100 graphics processing units (GPUs), and that the Grok 3 model and later versions would require 100,000 Nvidia H100 chips.
AI 모델 훈련에는 수만 개의 GPU가 필요하다. 일론머스크 테슬라 최고경영자(CEO)는 자신의 엑스 계정에 "델 테크놀로지스가 xAI가 구축 중인 슈퍼컴퓨터를 위한 랙의 절반을 조립하고 있다"고 말했다. 머스크는 최근 투자자들에게 자신의 인공지능 스타트업 xAI가 AI 챗봇 Grok의 다음 버전을 구동하기 위해 슈퍼컴퓨터를 구축할 계획이라고 밝힌 바 있다. 델의 최고경영자 마이클 델(Michael Dell) 또한 자신의 엑스에 별도의 게시물을 올려 "회사가 인공지능 강자인 엔비디아와 함께 AI 공장을 구축하고 있으며, 이는 xAI의 챗봇 Grok의 다음 버전을 구동할 것"이라고 밝혔다. xAI의 Grok와 같은 AI 모델의 훈련에는 전력 소모가 큰 수만 개의 칩이 필요하며, 이 칩들은 공급이 부족한 실정이다. 올해 초 머스크는 Grok 2 모델의 훈련에 약 20,000개의 Nvidia H100 그래픽 처리 장치(GPU)가 필요했으며, Grok 3 모델 및 그 이후 버전에는 100,000개의 Nvidia H100 칩이 필요할 것이라고 말한 바 있다.