Meta has begun testing its first in-house AI training chip. This move is interpreted as part of a strategy to reduce dependence on external suppliers such as Nvidia. The chip is part of the Meta Training and Inference Accelerator (MTIA) series and is a dedicated accelerator designed for AI system training. Currently, the test deployment is limited, with plans to scale up production if the results are positive. Taiwan-based TSMC is handling the chip manufacturing. Meta recently successfully completed a major step in the chip development process called "tape-out" and is now conducting additional tests and potential redesigns. Meta plans to utilize this chip for AI system training by 2026. Initially, it will be used for recommendation systems on Facebook and Instagram, with plans to expand its use to generative AI products such as the Meta AI chatbot. This in-house chip development aligns with Meta's strategy to reduce infrastructure costs. Meta plans to invest up to $65 billion in AI infrastructure expansion by 2025. Earlier this year, Meta announced it is considering developing a new data center campus to support its AI projects, with estimated costs exceeding $200 billion.
메타가 첫 자체 AI 훈련용 칩 테스트를 시작했다. 이는 엔비디아와 같은 외부 공급업체에 대한 의존도를 줄이기 위한 전략의 일환으로 해석된다. 이 칩은 Meta Training and Inference Accelerator(MTIA) 시리즈의 일부로, AI 시스템 훈련을 위해 설계된 전용 가속기다. 현재 테스트 배포는 제한적으로 이루어지고 있으며, 결과가 긍정적일 경우 생산을 확대할 계획이다. 칩 제조는 대만 기반의 TSMC가 맡고 있다. 메타는 최근 칩 개발 과정의 주요 단계인 "테이프아웃"을 성공적으로 완료했으며, 이후 추가 테스트와 잠재적인 재설계를 진행 중이다. 메타는 2026년까지 이 칩을 활용해 AI 시스템 훈련에 나설 계획이다. 초기에는 페이스북과 인스타그램의 추천 시스템에 사용되며, 이후 생성형 AI 제품인 메타 AI 챗봇 등으로 활용 범위를 넓힐 예정이다. 이번 자체 칩 개발은 메타의 인프라 비용 절감 전략과도 맞물려 있다. 메타는 2025년까지 최대 650억 달러를 AI 인프라 확장에 투자할 계획이다. 올해 초 메타는 AI 프로젝트를 지원하기 위한 새로운 데이터 센터 캠퍼스 개발을 검토 중이며, 예상 비용은 2000억 달러를 초과할 것으로 전망된다.