Machine learning consortium MLCommons to develop benchmarks for AI learning algorithms has released new test results that determine how fast top-of-the-line hardware can run artificial intelligence models. Nvidia's chips were the top performers in the tests on large language models, with semiconductors produced by Intel coming in a close second.
AI 학습 알고리즘 벤치마크를 개발하는 머신러닝 컨소시엄 ML커먼즈(MLCommons) 최고급 하드웨어가 인공지능 모델을 얼마나 빨리 실행할 수 있는지를 결정하는 새로운 테스트 결과를 공개했다. 대규모 언어 모델에 대한 테스트에서 엔비디아의 칩이 최고 성능을 보였으며, 인텔에서 생산한 반도체가 근소한 차이로 2위를 차지했다.