Meta has acknowledged that it has been engaging in excessive content moderation on its platforms. Nick Clegg, Meta's President of Global Affairs, stated in a press conference that "the error rate for content moderation is still too high" and expressed a commitment to improvement. Clegg particularly expressed regret over the excessive deletion of posts related to the COVID-19 pandemic. He admitted, "We applied very strict rules and removed a large volume of content during the pandemic," adding, "In hindsight, we may have overreacted a bit." It appears that Meta's automated moderation system has become overly strict. Recently, cases of 'moderation failures' have become a topic of discussion on Meta's new platform, Threads. While Meta has not yet revealed specific improvement plans, Clegg described the content policies as a "living, breathing document," hinting at the possibility of changes.
메타가 자사 플랫폼에서 과도한 콘텐츠 검열을 하고 있다고 인정했다. 닉 클레그(Nick Clegg) 메타 글로벌 업무 담당 사장은 기자회견에서 "콘텐츠 검열 오류율이 여전히 너무 높다"며 개선 의지를 밝혔다. 클레그 사장은 특히 코로나19 팬데믹 관련 게시물에 대한 과도한 삭제를 후회한다고 말했다. 그는 "팬데믹 기간 동안 매우 엄격한 규칙을 적용해 대량의 콘텐츠를 삭제했다"며 "사후 판단으로 볼 때 조금 과도하게 대응했다"고 인정했다. 메타의 자동화된 검열 시스템이 지나치게 엄격해진 것으로 보인다. 최근 메타의 새 플랫폼인 스레드에서 '검열 실패' 사례가 화제가 되기도 했다. 메타는 아직 구체적인 개선 방안을 밝히지 않았지만, 클레그 사장은 콘텐츠 규정을 "살아 숨 쉬는 문서"로 표현하며 변화 가능성을 시사했다.