Meta has announced a new policy to specially "label" images generated by artificial intelligence (AI) on its social media platforms Facebook, Instagram, and Threads. The move reflects Meta's commitment to enhancing transparency and trust in the digital media landscape by making it easier for users to identify AI-generated content. The new labeling system will allow users to clearly distinguish between images created by AI technology and human-generated content. This is expected to improve users' ability to make informed judgments, which is an important step, especially given the recent rise of authenticity issues in the digital world. In addition to developing its own technology that leverages AI to label images, Meta said it has also focused on establishing policies and standards for this purpose. The labeling policy will be fully implemented in the coming months, and Meta plans to actively solicit feedback from users during the process and closely monitor the effectiveness of the measures.
메타가 자사의 소셜 미디어 플랫폼들인 페이스북, 인스타그램 및 스레드(Threads)상에서 인공지능(AI)이 생성한 이미지들에 특별한 '라벨'을 부착하는 새로운 정책을 발표했다. 이번 조치는 사용자들이 AI에 의해 생성된 컨텐츠임을 쉽게 구별할 수 있도록 하여, 디지털 미디어 환경의 투명성과 신뢰성을 강화하고자 하는 메타의 의지를 반영하고 있다. 새로 도입되는 라벨링 시스템은 사용자들이 AI 기술로 만들어진 이미지와 사람이 직접 생성한 컨텐츠를 명확히 식별할 수 있게 해준다. 이로 인해 사용자의 정보 판단 능력이 한층 개선될 것으로 기대되며, 특히 최근 디지털 세계에서의 진실성 문제가 대두되는 가운데 중요한 보폭으로 평가받고 있다. 메타는 이미지에 라벨을 부착하기 위해 AI를 활용하는 자체 기술을 개발하는 한편, 이를 위한 정책 및 기준 마련에도 주력했다고 밝혔다. 라벨링 정책은 향후 몇 개월 내에 전면적으로 시행될 예정이며, 메타는 이 과정에서 사용자들의 의견을 적극 수렴하고 조치의 효과를 면밀히 모니터링할 계획이다.