엔비디아, AI 모델 트레이닝을 위한 최신 하이엔드 칩 H200 공개... "출력 속도 증가"

NVIDIA has unveiled the H200, a graphics processing unit (GPU) designed to train large language models (LLMs) that underpin generative AI models at twice the output speed of the original H100. The H200 is an upgraded version of the H100, which companies around the world are racing to get their hands on, including for training GPT-4, the latest LLM from ChatGPT developer OpenAI. Currently, each H100 chip is estimated to cost between $25,000 and $40,000, and thousands of chips are needed to run the LLM. The price of the H200 is not known.

엔비디아가 기존 H100의 출력 속도보다 2배 빠른 생성형 AI 모델의 기반이 되는 대규모 언어 모델(LLM)에 적용해 이를 훈련하도록 설계된 그래픽처리장치(GPU) H200을 공개했다. H200은 챗GPT 개발사 오픈AI의 최신 LLM인 GPT-4 훈련에 적용되는 등 전 세계 기업들이 확보하기 위해 경쟁을 벌이는 H100의 업그레이드 버전이다. 현재 H100 칩 1개당 가격은 2만5천달러∼4만달러로 추정되고 있으며, LLM을 구동하는 데에는 수천 개의 칩이 필요하다. 다만, H200의 가격은 알려지지 않았다.

Nvidia unveils H200, its newest high-end chip for training AI models

앨리스

ai@tech42.co.kr
기자의 다른 기사보기
저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지

관련 기사

애플 선정 2024년 최고의 아이폰 앱 '키노'

애플이 선정한 2024년 최고의 아이폰 앱은 동영상 촬영 앱 '키노(Kino)'다. 챗GPT가 미국 앱스토어 1위를 기록했음에도, 애플은 AI 기반 앱 대신...

테슬라에 밀린 일본전기차 반격 카드, 혼다·닛산 합병 추진

혼다와 닛산이 테슬라, BYD 등 전기차 업체들과의 경쟁력 강화를 위해 합병을 논의 중이다. 양사는 새로운 지주회사 설립을 위한 양해각서 체결을...

세일즈포스, AI 제품 판매를 위해 2,000명 채용 계획

Cloud software giant Salesforce plans to hire thousands of new salespeople to sell its AI tools to customers.

미국 '틱톡 금지' 앞둔 마케터들, 대체 전략 준비

미국의 틱톡 금지법 통과로 마케터들이 대체 전략을 준비하고 있다. 2025년 1월 19일부터 앱스토어에서 틱톡 다운로드가 금지되며, 미국 기업에 매각되더라도 핵심...