A U.S. appeals court has revived a lawsuit against TikTok over the death of a 10-year-old girl who participated in the viral "blackout challenge." The court ruled that Section 230 of the Communications Decency Act does not shield TikTok from liability for content recommendations made by its algorithm. This decision follows a recent Supreme Court ruling that platform algorithms reflect "editorial judgments." TikTok has not commented on the ruling. The case, filed by the girl's mother, can now proceed, with her lawyer stating, "Big Tech just lost its 'get-out-of-jail-free card.'" This ruling could set a significant precedent for the scope of social media platforms' liability and may impact how these companies approach content curation and recommendation in the future.
미국 항소법원이 틱톡에 대한 소송을 다시 시작할 수 있도록 판결했다. 이 소송은 10세 소녀가 틱톡에서 유행한 "블랙아웃 챌린지"에 참여한 후 사망한 사건과 관련있다. 법원은 틱톡의 알고리즘이 소녀에게 이 챌린지를 추천했기 때문에, 통신 품위법 230조의 면책 조항이 적용되지 않는다고 판단했다. 판사 패티 슈와르츠는 틱톡이 특정 사용자에게 추천하는 콘텐츠가 자사의 직접적인 발언에 해당한다고 설명했다. 이 판결은 하급 법원이 틱톡에 대한 소송을 기각한 결정을 뒤집은 것입니다. 피해자의 어머니는 딸이 2021년 챌린지를 시도하다가 사망한 후 소송을 제기했다. 이번 판결로 인해 소셜 미디어 플랫폼의 콘텐츠 추천에 대한 법적 책임 문제가 새로운 국면을 맞게 되었다.