A month after leaving OpenAI, Dr. Ilya Sutskever has announced a new venture called Safe Superintelligence (SSI). SSI will focus on developing safe superintelligent AI, which they consider "the most important technical problem of our time." The company has offices in Palo Alto and Tel Aviv and is recruiting top engineers and researchers worldwide. Sutskever and his co-founders have deep ties to Israel and significant experience in the AI field. SSI plans to approach safety and capabilities in tandem, aiming to advance capabilities rapidly while ensuring safety remains ahead. The company stated that its business model allows them to focus on safety, security, and progress without short-term commercial pressures.
오픈AI를 떠난 지 한 달 만에 일리야 서츠케버 박사가 '안전한 초지능(Safe Superintelligence.SSI)'라는 새로운 벤처를 발표했다. SSI는 안전한 초지능 AI 개발에 집중할 것이며, 이를 "우리 시대의 가장 중요한 기술적 문제"로 여기고 있다. 회사는 팔로알토와 텔아비브에 사무실을 두고 있으며, 세계 최고의 엔지니어와 연구원들을 모집하고 있다. 서츠케버와 공동 창업자들은 이스라엘과 깊은 연관이 있으며, 그들의 배경은 AI 분야에서 상당한 경험을 가지고 있다. SSI는 안전성과 능력을 동시에 발전시키는 접근 방식을 취하고 있으며, 단기적인 상업적 압박으로부터 자유롭게 안전성, 보안, 진보에 집중할 수 있는 비즈니스 모델을 갖추고 있다고 밝혔다.