텔레그램 n번방 운영자 '갓갓' 문형욱은 아동·청소년의 성보호에 관한 법률 위반 혐의 등으로 징역 34년을 선고받았다.
이에 앞서 검찰은 결심공판에서 "피고인은 치밀하고 계획적으로 개인 욕망 충족을 위해 범행을 저질러 다수 피해자가 발생했고 영상 유통으로 지속적으로 피해를 끼쳤다"라며 문씨에게 무기징역을 구형했다.
텔레그램 n번방 사건을 계기로 국내 디지털 성범죄 근절 대책을 수립한지 어느덧 1년이 지났다. 전 국민의 관심 속에 처벌 범위와 대상이 확대되고 기준이 높아지면서 강력한 개정을 이루게 되었지만 여전히 유사한 사건들은 끊이지 않고 있다.
딥페이크(Deepfake). 인공지능(AI) 기술을 활용해 기존에 있던 인물의 얼굴을 합성한 영상 편집물을 말한다. 이미 사망한 망인의 얼굴을 재현해 가상공간에서 가족들을 위로하기도 하고, 과거의 추억을 소환해 새로운 감동을 만들어 내기도 한다. 아동 실종사건의 전단지를 10년 20년 후의 모습으로 새로 만들 수 있으니 제대로 쓰인다면 인류의 커다란 감성적 차원을 끌어올리는데 큰 역할을 할 수 있다.
하지만, 악용이 된다면 보이는 것을 보이는 대로 볼 수 없으며 가짜와 진짜를 구분하기 어려운 치명적인 위험을 발생시킬 수 있다. 또 특정 인종의 잘못된 학습효과로 인해 유색인을 범죄자로 예측하는 등 인종 차별적인 모습을 보일 수도 있다.
인간의 이성, 감성적인 특유의 판단에 도전하는 'AI'에 대한 규제가 시작됐다.
위험성에 비례한 접근법이라며 ‘금지 AI’ ‘엄격한 사전평가를 거쳐야 하는 고(高)위험 AI’ ‘제한적인 투명성 의무화가 붙는 AI’가 제시됐다. 유럽연합(EU)은 지난달 21일 총 108페이지 분량의 규제 초안을 내놓으며 AI를 네 가지 위험군으로 나누었다.
EU 집행위원회는 AI로 인해 발생할 수 있는 부작용을 ▲용인할 수 없는 위험(Unacceptable Risk) ▲고위험(High-Risk) ▲제한된 위험(Limited Risk) ▲최소한의 위험(Minimal Risk)으로 분류해 각 항목에 따라 AI 사용을 제한해야 한다고 촉구했다.
네 가지 위험군 이외에도 EU는 특수 조건을 충족시키지 못하는 빅데이터 사용과 안전이 확보되지 않은 채 수술로봇을 도입하는 행태도 모두 고위험군에 포함시켰다. 해당 단계에서 AI가 인간 사회의 윤리를 해치고 편견을 조장할 경우 4개 항목 중 최고 단계인 ‘▲용인할 수 없는 위험(Unacceptable Risk)’으로 격상해 AI 시스템 사용을 금지하겠다는 것으로 초안 이후 여러 수정 과정을 거쳐 2023년 최종적으로 AI 규제법 시행에 들어갈 예정이라고 밝혔다.
특히, 이번 규제안은 고위험 AI에 대한 수칙 위반 정도에 따라 글로벌 연 매출 최대 6%를 벌금으로 부과 받을 수 있고, 주의 의무 위반 시 4%, 유해 정보 제공 시 2%로 규정했다. 이는 연 매출 4% 벌금을 부과하는 EU 일반 개인정보보호법(GDPR) 보다 2%p 강화된 규제다.
업계에 따르면 이번 EU의 규제안은 미래 핵심 산업인 '인공지능'의 기준이 되려는 유렵의 속내가 그대로 나타났다는 의견이 지배적으로 법안을 제정하기 전, 구체적인 증거에 기반한 준비가 필요한데 인공지능의 순기능 및 역기능에 대한 구체적인 증거가 여전히 제한적이기 때문에, 이에 대한 지속적인 증거 축적이 필요하다는 우려 섞인 목소리가 나오고 있다.
이에 AI 개발사 뿐만 아니라 사용자 입장에서도 의견이 분분하다. 강도 높은 규제가 포함된 것은 한눈에 봐도 알 수 있으나 '용인할 수 없는 위험(Unacceptable Risk)'과 '고위험(High-Risk)'의 범위가 난해하다는 입장이다.
위험성에 비례한 접근법이긴 하지만 최고 단계인 '용인할 수 없는 위험'까지 특정 기술은 '고위험'에 대한 사전 평가를 받는다.
'고위험'은 ▲제한된 위험(Limited Risk)에 해당하는 AI는 사람이 아니라 인공지능임을 알 수 있게 하라는 조건인데 해당 조건을 충족할 수 있는 인공지능은 현재 '챗봇'이 유일하다. 이는 자칫 '챗봇'을 제외한 모든 AI는 전부 규제 대상이다고 해석 할 수 있다.
규제 샌드박스와 스타트업 지원으로 AI 혁신을 촉진하겠다는 EU가 오히려 AI 경쟁력 확대를 줄이고 경쟁자 견제에 따른 규제가 아니냐는 의견까지 나오고 있는 상황이다.
페이팔(PayPal)의 수석 부사장 겸 CTO인 스리 시바난다(Sri Shivananda)는 "책임감 있고 윤리적인 AI에 대해 우리 모두 아직 배워가는 단계”라며, “모두가 협력하여 AI 구현에 대해 새로운 표준을 정하고 윤리 규범을 준수해야 한다”라고 밝힌 바 있다.
데이터에 대한 사용과 안전에 대한 확보는 AI를 단순히 기술적·비즈니스 관점에서만 접근할 것이 아니라 개발 단계에서부터 ‘AI 윤리’ 원칙을 적용해 AI의 편향성을 해소하고 데이터베이스의 공정성을 확보해야 하는데 현재 국내 상황에 비춰볼 때 달걀을 낳기도 전에 달걀의 크기를 규제하는 것과 다르지 않다.
국내에는 아직 확립된 AI 윤리가 없으며, 사용자들이 고도화된 AI 기술을 요구할수록 혐오·성희롱 등의 문제를 해결하는 것은 더욱 어려워진다고 업계 관계자들은 지적한다.
한국인공지능법학회장인 고학수 서울대 법학전문대학원 교수는 법과 정책의 시각에서 AI를 어떻게 정의할 것인지가 AI 윤리의 시작점이 될 것으로 판단했다.
고 교수는 “이루다의 혐오 발언 문제에서 출발해 법안을 만든다고 하면 어떤 내용을 담을 수 있을까. 당연히 법이 있어야 한다고 생각할 수 있지만 그 법을 통해 달성하고자 하는 게 무엇인지 질문이 필요하다”라고 했다.
그는 또 “사람이 하는 차별과 AI가 하는 차별은 다르다. 사람은 차별을 안 하는 것처럼 하면서도 3자가 봤을 때 차별하는 것일 수 있다. AI의 차별은 어떤 식의 알고리즘을 썼는지 알 수 있다면 파악할 수 있다”라고 덧붙였다.
업계에서도 활발한 움직임이 시작됐다.
2021년 LG전자는 AI와 관련된 다양한 주제에 관해 논의하고, 인간 중심 AI의 미래를 만들기 위해 ‘AIX 보고서’를 발표했다.
AI 전문가 12명이 참여한 이 보고서는 △대중의 인식(Public Perception) △윤리(Ethics) △투명성(Transparency) △사용자 경험(User Experience) △맥락(Context) △관계(Relationship) 등 AI에 대한 6가지 주제를 다루고 있다.
특히 ‘AIX 보고서’에 따르면 'AI 윤리'를 5가지 요소나 나누는데 다양성을 고려하는 포괄성(Inclusivity), 최종 사용자를 생각하는 가치(Values), 현실과 기술을 조율할 수 있는 거버넌스(Governance), 투명성을 보장하는 데이터 개인 정보보호 (Data Privacy) 필요한 데이터만 수집하는 확고한 목적(Purpose) 이 이에 해당된다. AI를 구축할 때 최종 사용자들을 위해 윤리적 위험성들을 고려한 인간 중심의 접근이 필요하는 해석이다.
정부 또한 'AI 윤리 기준안'을 준비 중에 있다.
인공지능 시대를 위한 선제적 법·제도·규제 정비 로드맵 마련에 따른 자율적 알고리즘 관리·감독, 고위험 분야 AI 기술기준 등을 마련할 방침이다.
특히, 학계·법조계·연구기관 등 각 분야 전문가들 의견을 토대로 만든 'AI 알고리즘 가이드라인'은 올해 6월 최종안이 발표될 예정이다. 이에 AI 기반 자율주행차, 드론, 로봇, 스마트도시 등 개별 분야 지원·규제를 위한 특례법을 상정시켜 국회를 통과했다.
다만, AI 기술에 새로운 권리나 의무를 부여하는 법률안은 폐기됐다. 자율주행차에 의한 사고 발생 시 책임 명확화·보험 의무화, AI 창작물에 저작권 부여 등은 아직 사회적 합의가 필요한 부분이라는 해석이다.
최근 과기정통부도 '신뢰할 수 있는 인공지능 전략'을 발표했다.
과기통부는 "인공지능 챗봇/딥페이크/사이코패스 인공지능 등 예상하지 못한 사회적 이슈와 우려가 대두되는 만큼, 사람이 중심이 되는 '인공지능 강국'으로 도약할 필요가 있다. 신뢰할 수 있는 인공지능 실현을 위한 지원정책이 필요하다는 판단에 따라 전략을 마련했다"라고 밝혔다. 과기통부가 발표한 인공지능 전략은 EU 인공지능 규제안과는 상당 부분 유사하다. 학습용 데이터와 고위협 인공지능의 신뢰 확보 모두 EU 규제안의 핵심 내용이었다.
오는 6월, 정부 지침의 'AI 알고리즘 가이드라인' 최종안이 발표된다. '규제 혁신으로 데이터 산업을 이끈다'라는 정부 기조 아래 규제 안을 만들기 전 국내 인공지능 사업 현황과 위험성을 꼼꼼하게 파악하는 과정이 선행되어야 할 것이다.