OpenAI has disbanded its Super Alignment team less than a year after creating a safety team to study artificial intelligence (AI) safety and ethics. Analysts say that OpenAI CEO Sam Altman, who is focused on advancing the development and commercialization of AI technology, has begun to push back on those who emphasize safe AI. The team, which was created in July of last year, had been working on techniques to ensure AI works in a way that benefits and does not harm humans, including managing the risks of general purpose artificial intelligence (AGI) with human-like intelligence. The news of the team's disbandment comes just days after a series of departures from the company, including OpenAI co-founder Ilya Sutskever. Sutskever was a key figure in founding OpenAI with CEO Sam Altman and setting the direction for ChatGPT development, and was one of the board members who fired Altman last November. However, the controversy has intensified as Altman and President Greg Brockman have pushed back against allegations that the company disbanded its AI safety and ethics team.
오픈AI가 인공지능(AI) 안전·윤리를 연구하는 안전팀 ‘슈퍼얼라인먼트(Super Alignment)’팀을 신설한 지 1년도 안 돼 해체했다. AI 기술 개발과 상업화 진전에 무게를 두고 있는 샘 올트먼 오픈AI 최고경영자(CEO)가 ‘안전한 AI’를 중시하는 이들을 밀어내기 시작했다는 분석이 나온다. 지난해 7월 신설된 이 팀은 인간과 동등한 수준의 지능을 갖춘 범용인공지능(AGI)의 위험성 관리 등 AI가 인간에게 유익하고 해롭지 않은 방식으로 작동하는 기술을 연구해 왔다. 팀 해체 소식은 오픈AI의 공동 창립자 일리야 수츠케버(Ilya Sutskever) 등 팀을 이끈 인력이 잇따라 회사를 떠난 지 며칠 만에 나왔다. 수츠케버는 샘 올트먼(Sam Altman) CEO와 오픈AI를 설립하고 챗GPT 개발 방향을 설정한 핵심 인물로 지난해 11월 올트먼을 해임한 이사회 멤버 중 한 명이다. 다만, 올트먼과 그렉 브록만(Greg Brockman) 사장이 인공지능(AI) 안전·윤리 담당 부서인 팀을 해체했다는 논란에 정면 반박하고 나서면서 논란이 가속화 되고 있다.