Nvidia CEO Jensen Huang stated that the performance of his company's AI chips is advancing faster than the historical rates set by Moore's Law. He emphasized, "Our systems are progressing way faster than Moore's Law," explaining that their latest datacenter superchip performs AI inference tasks more than 30 times faster than the previous generation. Huang refuted claims that AI progress is slowing down, asserting that there are currently three active AI scaling laws. He said, "Moore's Law was so important in the history of computing because it drove down computing costs. The same thing is going to happen with inference where we drive up the performance, and as a result, the cost of inference is going to be less." While Nvidia's H100 chip was considered the preferred choice for AI model training, tech companies are now focusing more on inference, raising questions about the competitiveness of expensive chips. Huang highlighted that their latest datacenter superchip, the GB200 NVL72, is 30 to 40 times faster than the H100, predicting that AI inference models will become cheaper over time. He also claimed that their AI chips today are 1,000 times better than what they made 10 years ago, adding that he sees no sign of this pace slowing down anytime soon.
엔비디아 CEO 젠슨 황은 자사의 AI 칩 성능이 무어의 법칙에서 설정한 역사적 속도보다 더 빠르게 발전하고 있다고 밝혔다. 그는 "우리 시스템은 무어의 법칙보다 훨씬 더 빠르게 발전하고 있다"고 강조하며, 최신 데이터센터 슈퍼칩이 이전 세대보다 AI 추론 작업을 수행하는 데 30배 이상 빠르다고 설명했다. 황은 AI 발전이 둔화되고 있다는 주장에 반박하며, 현재 세 가지 활성화된 AI 스케일링 법칙이 존재한다고 주장했다. 그는 "무어의 법칙은 컴퓨팅 비용을 낮추는 데 중요한 역할을 했으며, 추론에서도 성능을 높여 비용이 줄어드는 일이 일어날 것"이라고 말했다. 엔비디아의 H100 칩은 AI 모델 훈련에 적합한 선택으로 여겨졌지만, 현재 기술 회사들이 추론에 더 집중하면서 비싼 칩의 경쟁력이 의문시되고 있다. 황은 최신 데이터센터 슈퍼칩인 GB200 NVL72가 H100보다 30배에서 40배 더 빠르다고 강조하며, AI 추론 모델이 시간이 지남에 따라 더 저렴해질 것이라고 전망했다. 그는 또한 자사의 AI 칩이 10년 전보다 1,000배 더 뛰어난 성능을 발휘한다고 주장하며, 이러한 속도가 멈출 기미가 보이지 않는다고 덧붙였다.