엔비디아, AI 모델 트레이닝을 위한 최신 하이엔드 칩 H200 공개... "출력 속도 증가"

NVIDIA has unveiled the H200, a graphics processing unit (GPU) designed to train large language models (LLMs) that underpin generative AI models at twice the output speed of the original H100. The H200 is an upgraded version of the H100, which companies around the world are racing to get their hands on, including for training GPT-4, the latest LLM from ChatGPT developer OpenAI. Currently, each H100 chip is estimated to cost between $25,000 and $40,000, and thousands of chips are needed to run the LLM. The price of the H200 is not known.

엔비디아가 기존 H100의 출력 속도보다 2배 빠른 생성형 AI 모델의 기반이 되는 대규모 언어 모델(LLM)에 적용해 이를 훈련하도록 설계된 그래픽처리장치(GPU) H200을 공개했다. H200은 챗GPT 개발사 오픈AI의 최신 LLM인 GPT-4 훈련에 적용되는 등 전 세계 기업들이 확보하기 위해 경쟁을 벌이는 H100의 업그레이드 버전이다. 현재 H100 칩 1개당 가격은 2만5천달러∼4만달러로 추정되고 있으며, LLM을 구동하는 데에는 수천 개의 칩이 필요하다. 다만, H200의 가격은 알려지지 않았다.

Nvidia unveils H200, its newest high-end chip for training AI models

앨리스

ai@tech42.co.kr
기자의 다른 기사보기
저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지

관련 기사

"2025년 디지털 마케팅, AI와 개인화가 대세"

Digital marketing expert Deepak Bansal has forecasted digital marketing trends for 2025 and beyond.

구글, 아이폰용 독립 Gemini AI 앱 출시

Google has launched a standalone 'Gemini AI' app for iPhone.

'크롬 쿠키' 동의 절차 앞둔 구글…광고업계 대안 요구

구글이 크롬 브라우저의 쿠키 사용 결정권을 사용자에게 이양하기로 결정했으나, 프라이버시 샌드박스 API 개발은 지속할 예정이다. 광고 및 마케팅 업계는 크롬의...

데이터로봇, 새로운 AI 제품으로 파트너십 강화 나서

Venky Veeraraghavan, Chief Product Officer of DataRobot, a company specializing in AI and machine learning solutions, has stated that their recently launched AI products will be a turning point for partner relationships.