Major AI companies received low ratings in the AI Safety Index released by the Future of Life Institute. This index evaluated six major AI companies across six categories, including risk assessment, current harms, and safety frameworks. In the assessment results, Anthropic received the highest grade of C, while Google DeepMind, Meta, OpenAI, xAI, and Zhipu AI scored D+ or lower. Meta, in particular, received a failing grade. The review panel pointed out that although all companies have expressed their intention to develop Artificial General Intelligence (AGI), most have failed to present adequate safety strategies. Notably, all companies received low scores in the existential risk strategy category. This evaluation is interpreted as showing that companies' current approaches are insufficient amid growing concerns about AI safety. Ensuring safety in the face of rapid advancements in AI technology has emerged as an urgent task.
생명의 미래 연구소(Future of Life Institute)가 발표한 AI 안전성 지수에서 주요 AI 기업들이 낮은 평가를 받았다. 이 지수는 위험 평가, 현재의 피해, 안전 프레임워크 등 6개 항목에 대해 6개 주요 AI 기업을 평가했다. 평가 결과, 앤스로픽이 가장 높은 C 학점을 받았으며, 구글 딥마인즈, 메타, 오픈AI, xAI, 지푸(Zhipu) AI는 D+ 이하의 점수를 기록했다. 특히 메타는 낙제점을 받았다. 평가단은 모든 기업이 인공지능 일반(AGI) 개발 의도를 밝혔음에도 불구하고, 대부분이 충분한 안전 전략을 제시하지 못했다고 지적했다. 특히 존재적 위험 전략 항목에서 모든 기업이 낮은 점수를 받았다. 이번 평가는 AI 안전성에 대한 우려가 커지는 가운데, 기업들의 현재 접근 방식이 충분하지 않다는 것을 보여주는 것으로 해석된다. AI 기술의 급속한 발전에 따른 안전성 확보가 시급한 과제로 떠오르고 있다.