In the run-up to the 2024 U.S. presidential election, concerns have been raised that new artificial intelligence technologies will facilitate a flood of deepfakes and disinformation, Meta will require advertisers to disclose when they digitally create or alter political ads to appear on its platform. Advertisers will be required to disclose when they digitally create or modify political ads that depict words or actions that were not said or done by a real person, and disclose when an event or person is completely fictionalized. Similarly, they will have to disclose any video that is a manipulation of actual events, as well as any digitally generated audio or video that is intended to depict events that allegedly occurred. If you fail to disclose the use of AI tools in your political ad, your ad may be rejected. If the ad is approved, it will be labeled as having been created with AI tools. "Repeated failures to disclose the use of AI will be penalized," Mehta said.
2024년 미국 대선을 앞두고 새로운 인공지능 기술이 딥페이크와 허위 정보의 범람을 조장할 것이라는 우려가 제기되는 가운데, 메타는 광고주들이 자사 플랫폼에 게재할 정치 광고를 디지털 방식으로 제작하거나 변경할 때 이를 공개하도록 요구할 예정이다. 광고주는 실제 인물이 하지 않은 말이나 행동을 묘사하는 정치 광고를 디지털 방식으로 제작하거나 수정할 때, 그리고 사건이나 인물이 완전히 꾸며진 경우 이를 공개해야 한다. 마찬가지로 실제 사건의 변형된 영상도 공개해야 하며, 발생한 것으로 추정되는 사건을 묘사하기 위해 디지털로 생성된 오디오 또는 비디오도 공개해야 한다. 만약, 정치 광고에 AI 도구 사용 여부를 공개하지 않을 경우 광고는 거부될 수 있다. 또 광고 승인이 되면 AI 도구로 제작됐다는 정보가 광고에 표시된다. 메타는 “AI 사용 여부를 반복적으로 공개하지 않은 경우 불이익을 받게 될 것”이라고 밝혔다.