LinkedIn has been using user data to train AI models without explicit consent, as reported by 404Media. The 'Data for Generative AI Improvement' option was found to be enabled by default in LinkedIn's settings. LinkedIn confirmed that it uses profile information and post content for AI model training, sharing data with affiliates such as Microsoft's Azure OpenAI. While the company claims to prioritize data protection, specific methods remain undisclosed. Users can opt out of this feature in settings, but previously trained data cannot be undone. Experts criticize this practice as unethical and call for stronger data privacy laws. The incident highlights the need for transparency in corporate data usage and the importance of user consent. This revelation has sparked a broader discussion about data privacy and the responsibilities of tech companies in the AI era.
링크드인이 이용자 동의 없이 개인 데이터를 AI 모델 학습에 사용한 것으로 드러났다. 이 사실은 최근 404미디어의 보도로 알려졌으며, 링크드인 설정에서 'Data for Generative AI Improvement' 옵션이 기본적으로 켜져 있는 것이 확인되었다. 링크드인은 이용자의 프로필 정보와 게시물 내용을 AI 모델 학습에 활용하고 있으며, 마이크로소프트의 애저, 오픈AI 등 '계열사'와 데이터를 공유한다고 밝혔다. 회사 측은 개인정보 보호를 위해 노력하고 있다고 주장하지만, 구체적인 방법은 공개하지 않았다. 이용자들은 설정에서 해당 기능을 끌 수 있으나, 이미 학습된 데이터는 취소할 수 없다. 전문가들은 이러한 관행이 비윤리적이며 개인정보 보호법 강화가 필요하다고 지적한다. 이번 사건을 계기로 기업들의 데이터 사용에 대한 투명성과 이용자 동의의 중요성이 재조명되고 있다.