[AI 요약] 최근 인공지능 챗봇 서비스 '이루다'의 개인정보보호 논란이 빼놓을 수 없었습니다. 각종 지원사업과 제도개선을 통해 AI 서비스를 지원하고 AI 윤리규범을 구체화 하는 정책 기반을 마련하기로 했습니다.
최근 인공지능(AI) 챗봇 서비스 '이루다'의 개인정보보호 논란이 거셉니다. 개인정보 유출 피해자들이 나왔습니다. 또한 우리나라에서 AI 윤리 문제가 수면 위로 부상하게 된 계기였기도 하죠. 성희롱과 성소수자 및 장애인 혐오 발언 학습. 인종차별까지 인간의 추악한 본성이 드러나는 장소가 돼버렸습니다. 젠더 문제도 불거졌고요. 결국 숱한 논란 끝에 이루다 서비스는 운영 중단을 하게됐습니다. 이루다가 남긴 숙제가 고스란히 드러난 셈이죠.
이에 따라 정부도 관련 제도 개선에 나섰습니다. 사실 AI 윤리 제도는 안했다기 보다 못했던 부분이 크죠. B2C 개념의 활성화된 서비스가 없었기 때문이기도 합니다. 어찌보면 이루다가 큰 일을 한 걸까요?
방송통신위원회는 이루다를 계기로, AI 이용자와 사업자에게 교육과 컨설팅을 지원하고 AI 윤리규범을 구체화 하는 등 정책 기반을 마련키로 했습니다.
방통위는 국내 ICT 제도 규제기관입니다. 규제는 혁신산업에 불필요한 걸림돌이 되기도 하지만, AI 윤리와 같이 민감한 부분에는 꼭 필요한 규제들을 만들어 넣어야 합니다.
방통위는 AI 윤리에 대해 이렇게 강조했습니다.
"최근 AI 채팅 로봇(이루다)의 혐오·차별적 표현, 이루다 대한 이용자의 성희롱성 발언 등이 사회적으로 큰 논란을 일으켰다."
"사업자·이용자·정부 등 모두가 AI 윤리의 중요성을 인지하고 각자 실천할 수 있는 방안을 모색해야 한다."
이와 함께 사람 중심의 AI 서비스가 제공되고, AI 서비스가 활용되는 과정에서 이용자 보호원칙이 지켜질 수 있도록 각종 지원사업과 제도개선을 추진할 계획이라고 밝혔습니다.
AI 윤리 제도 어떻게 바뀌나?
이에 대해 한상혁 방통위원장은 "AI 서비스는 많은 순기능이 있지만 올바른 윤리와 규범 없이는 이용자 차별과 사회 갈등을 초래할 수 있다"면서, "기술 혜택은 골고루 누리되 부작용은 최소화하도록 사람 중심의 AI를 위한 정책을 촘촘히 추진할 것"이라고 말했습니다.
먼저 정부는 AI 서비스에서 이용자 보호를 가장 큰 원칙으로 삼아 이용자 교육과 사업자 컨설팅, 제도개선 등을 추진할 방침이라고 합니다.
올해부터 이용자에게 AI 서비스의 비판적 이해 및 주체적 활용에 대한 교육을 시작합니다. 이용자가 AI 서비스에 활용된 알고리즘의 편향성을 파악하고, 그에 따른 문제를 최소화해 서비스를 이용하는 방안 등을 포함돼 있습니다.
내년부터는 AI 윤리교육 지원 대상을 이용자에서 사업자로 확대해 스타트업 등을 대상으로 서비스 설계 시 AI 역기능 등 위험관리 컨설팅을 지원하는 사업을 추진할 예정입니다.
아울러 AI 서비스 이용자 보호를 위해 규범과 제도를 구체화합니다.
앞서 2019년 11월 차별금지와 인간존엄성 보호 등을 골자로 한 ‘이용자 중심의 지능정보사회를 위한 원칙’을 토대로, 이를 실천할 구체적 사례와 방법 등을 업계와 공유할 계획입니다.
특히 사업자의 규제 부담 및 AI 서비스의 혁신 저해를 최소화하기 위해 민간의 모범 사례를 적극 발굴해 실행 지침의 토대로 삼을 방침이라고 하네요. 중장기적으로는 이용자에게 피해를 야기한 AI 서비스의 책임 소재 및 권리구제 절차 등을 포괄하도록 기존 법체계를 정비합니다.
이를 위해 방통위는 지난해 1월 정보통신정책연구원(KISDI) 내에 지능정보사회 정책센터를 설립하고 지난해 9월부터 센터 내 법제 연구반을 구성해 운영 중입니다.
아직은 전체적인 방향성만 세워진 상황입니다. 이용자들과 사업자에게 어떻게 실적용이 되는지는 조금 더 지켜봐야 겠죠. 제 2의 이루다 서비스가 나왔을 때, 우리의 AI 윤리는 조금이나마 나아졌을까요?