[AI요약] AI챗봇에 대한 엄청난 관심으로 해당 기술의 배포경쟁이 치열해지면서 ‘데이터의 블랙박스’와 같은 ‘개인정보보호법’ 문제가 수면 위로 떠올랐다. 사용자의 대화가 AI챗봇 재교육과 개선에 사용되고 있는 가운데, 이로 인한 개인과 기업 정보 유출이 우려되고 있다.
인공지능(AI) 챗봇 개발과 배포 경쟁이 치열해지면서 촉발된 새로운 데이터 개인정보 문제에 대해 로이터통신, CNN 등 외신이 6일(현지시간) 보도했다.
JP모건체이스(JPM) 등 일부 기업이 소프트웨어 사용과 관련된 규정 준수 문제로 인해 자사 직원의 AI 챗봇 ‘챗GPT’(ChatGPT) 사용을 단속하고 있는 것으로 알려졌다.
챗GPT 개발사인 오픈AI(OpenAI)는 일부 사용자가 다른 사용자의 채팅 기록에서 대화 제목을 볼수 있는 버그를 발견하고 해당 버그를 수정하기 위해 지난달 20일 일시적으로 챗GPT를 오프라인 상태로 전환한바 있으며, 이후부터 개인정보보호에 대한 우려가 가중되기 시작했다.
오픈AI는 당시 “해당 버그는 일부 사용자가 다른 활성 사용자의 성명, 이메일주소, 지불주소, 신용카드번호의 마지막 4자리, 신용카드 만료날짜를 볼수 있다”고 자사 블로그 게시물을 통해 밝혔다. 그리고 지난주 이탈리아 규제 당국은 오픈AI가 개인정보 위반 사실을 공개한 후 즉시 개인정보보호 문제를 이유로 챗GPT에 대한 일시적인 금지 조치를 발표했다.
지난해 11월 말에 대중에게 공개된 챗GPT는 사용자가 프롬프트를 입력하기만 하면 챗봇이 에세이, 이야기, 노래가사 등을 생성하면서 엄청난 주목을 받고 있다. 이후 구글, 마이크로소프트 등 IT기업들은 동일한 방식으로 작동하면서 방대한 온라인 데이터를 통해 훈련된 대규모 언어모델로 구동되는 AI툴을 출시했다.
전문가들은 챗GPT와 같은 AI챗봇에 대한 개인정보보호는 ‘데이터의 블랙박스’와 같아서 아무리 강조해도 지나치지 않는다고 지적한다.
법률회사 폭스로스차일드의 개인정보보호 및 데이터보안관행팀 마크 맥크레리 공동의장은 “챗봇의 데이터가 어떻게 사용될지 아무도 모른다는 점에서 기업에 특히 큰 우려를 불러일으킨다”며 “직원들이 업무 이메일이나 회의록 작성에 활용하기 위해 점점 더 챗봇을 자연스럽게 채택함에 따라 기업의 영업 비밀이 다양한 AI에 들어갈 기회가 늘어날 것”이라고 관측했다.
‘아! AI챗봇으로 회의 메모를 요약하면 되겠다!’와 같은 매우 무해해 보일수 있는 작업으로 일어나는 민감한 정보의 부주의한 공개도 문제다. 스티브 밀스 보스턴컨설팅그룹 최고 AI윤리 책임자는 “만약 회의 메모를 AI챗봇 프롬프트에 붙여넣으면 잠재적으로 민감한 정보가 모두 공개되는 것”이라며 “사람들이 입력한 데이터를 챗봇의 추가 교육을 위해 사용한다면 해당 데이터에 대한 통제력은 상실되고, 타인이 개인의 데이터를 가지게 될 것”이라고 지적했다.
사용자들이 AI챗봇에 입력한 데이터가 정말 이러한 AI도구를 추가로 교육하는데 사용될까?
오픈AI는 개인정보보호 정책에 따라 서비스를 사용하는 사람들로부터 모든 종류의 개인정보를 수집한다. 기업은 해당 정보를 사용해 서비스 개선 및 분석, 연구 수행, 사용자와의 소통, 특히 새로운 프로그램과 서비스를 개발할 계획이라고 밝혔다.
개인정보보호 정책은 법률에서 요구하지 않는 한 사용자에게 추가통지 없이 개인정보를 제3자에게 제공할 수 있다고 명시한다. 개인정보보호 정책이 불투명하다고 느껴진다면 이는 인터넷 시대에 업계 표준이 됐기 때문이다. 오픈AI 역시 별도의 사용약관 문서가 있으며, 문제가 발생하더라도 대부분의 책임은 사용자가 스스로 해당 도구를 사용할 때 적절한 조치를 취해야한다.
오픈AI는 “데이터는 서비스 판매, 광고, 사람들의 프로필 구축을 위해 사용되지 않으며, 툴을 더욱 유용하게 만들기위해 사용된다”며 “예를들어 챗GPT는 사람들이 나누는 대화에 대한 추가 교육을 통해 개선된다”고 어제 블로그 게시물을 통해 밝혔다.
AI챗봇 ‘바드’(Bard)를 포함하는 구글의 개인정보보호 정책도 오픈AI와 마찬가지로 생성 AI 사용자를 위한 장황한 추가 서비스 약관이 있다. 구글은 “사용자의 개인정보를 보호하면서 바드를 개선하는 데 도움이 되도록 대화의 하위 집합을 선택하고, 개인식별정보를 제거하는데 도움이 되는 자동화 도구를 사용한다”고 밝히고 있다.
구글은 바드에 대한 별도의 ‘자주묻는질문’(FAQ)를 통해 “이러한 샘플 대화는 숙련된 검토자가 검토할 수 있으며 구글 계정과 별도로 최대 3년 동안 보관된다”고 명시했다. 특히 구글은 “바드와 대화를 하면서 본인 또는 타인을 식별하는 데 사용할 수 있는 정보를 포함하지 말 것”이라고 경고하고 있다.
밀스는 “우리는 여전히 AI챗봇이 정확하게 어떻게 작동하는지 배우고 있는 단계”라며 “때로는 사용자와 개발자가 너무 늦을 때까지 신기술에 도사리고 있는 개인정보보호 위험 문제를 깨닫지 못하는 경우가 있다”고 지적했다.
소셜댓글