European Union (EU) regulators said on Saturday that metaplatform social media sites Facebook and Instagram will be investigated for allegedly violating online content rules related to child safety risks. The investigations could lead to hefty fines, according to the company. EU regulators are particularly concerned that Facebook and Instagram's age verification systems and algorithms could put children at risk. The regulators also claimed that Meta did not do enough to quickly remove child sexual abuse content. The EU's Digital Services Act (DSA), which came into force last year, requires tech companies to do more to address illegal and harmful content on their platforms. The DSA is intended to make online platforms more accountable, improve user protection, and promote fairness in online markets. “Child safety is our top priority and we are committed to complying with applicable laws and regulations,” said Meta, “and we will work with EU regulators to address their concerns.”
유럽연합(EU) 규제 당국은 16일(현지시간) 메타플랫폼의 소셜 미디어 사이트 페이스북과 인스타그램이 아동 안전 위험과 관련된 온라인 콘텐츠 규칙을 위반한 혐의로 조사를 받게 될 것이라고 밝혔다. 이번 조사는 막대한 과태료 부과로 이어질 수 있는 것으로 전해졌다. EU 규제 당국은 특히 페이스북과 인스타그램의 연령 확인 시스템과 알고리즘이 어린이들을 위험에 빠뜨릴 수 있다는 점에 우려를 표명하고 나섰다. 규제 당국은 또한 메타가 아동 성적 학대 콘텐츠를 신속하게 제거하는 데 충분한 노력을 기울이지 않았다고 주장했다. EU는 지난해 시행된 디지털서비스법(DSA)에 따라 기술 기업들이 플랫폼 상의 불법적이고 유해한 콘텐츠 해결에 더 많은 노력을 기울여야 한다고 규정하고 있다. DSA는 온라인 플랫폼의 책임을 강화하고, 사용자 보호를 개선하며, 온라인 시장의 공정성을 증진하기 위한 목적으로 제정되었다. 한편, 메타는 "아동 안전을 최우선으로 생각하며 관련 법규를 준수하기 위해 최선을 다하고 있다"라며, "EU 규제 당국과 협력하여 우려 사항을 해결할 것"이라고 전했다.