지난 19일 진행된 ‘Agile AI Forum’ 웨비나는 각 분야 7인의 전문가가 참여해 생성형 AI가 일으키는 변화상과 전망을 공유하고 다양한 산업 도메인의 적용 사례와 가능성을 소개하는 자리로 관심을 모았다.
이날 특히 주목을 받은 것은 인공지능 기술 발달에 따른 법 규제와 관련된 발표였다. 법무법인 디라이트의 조원희 대표 변호사(이하 대표)는 ‘생성형 AI에 대한 국내외 법적 현황과 연구개발시 고려사항’을 주제로 한 발표를 통해 유럽과 미국 사례와 함께 인공지능과 관련된 법률 제정을 진행 중인 우리나라의 현황과 과제를 진단했다.
특히 이날 발표에서 조 대표는 ‘인공지능에 대한 규제와 진흥 사이에 적절한 밸런스를 찾아야 한다’고 강조했다. 규제 일변도로 갈 경우 이제 막 태동하는 산업을 위축시켜 글로벌 경쟁력을 잃을 수 있다는 것이다. 한편으로 자율규제만을 내세우며 방관할 경우 미국 등 글로벌 빅테크에게 국내 시장을 내주는 결과를 초래하 수도 있다는 것이 조 대표의 진단이다.
국내 인공지능법 제정 현황은?… EU와 유사한 ‘위험 단계별 규제’가 될 가능성 높아
이날 포럼에서 조원희 대표는 우리나라에서 진행된 인공지능(AI) 관련 규제 동향을 짚는 것으로 발표를 시작했다. 앞서 우리나라는 2019년에 방송통신위원회 정보통신정책연구원이 ‘이용자 중심의 지능정보사회를 위한 원칙’을 발표했다. 개인정보 및 프라이버시 보호 등의 기본 원칙 등이 담겨 있었다.
이어 같은 해 정부의 12월 ‘인공지능 국가전략’이 발표됐다. ‘선(先)허용 후(後)규제’를 기본 방향으로 정하고 AI 분야의 ‘포괄적 네거티브 규제 로드맵’을 수립한다는 것이었다. 여기에는 AI의 신뢰성과 안정성을 검증하는 품질 관리 체계를 구축하겠다는 내용도 포함됐다.
이는 다시 2020년 12월 과학기술정보통신부의 ‘인공지능 윤리기준’ 발표로 이어졌다. 인권보장과 프라이버시 보호, 다양성 존중, 공공성, 연대성, 데이터 관리, 책임성, 안정성 등의 10대 핵심 요건을 담은 것으로 미국과 EU 등에서 제시하는 수준의 내용과 다르지 않은 것이었다.
이러한 움직임 속에 지난 2021년에는 개인정보보호위원회가 ‘AI 개인정보보호 자율점검표’를 공개하는가 하면 2022년에는 ‘인공지능 윤리정책포럼’이 발족됐고, 국가인권위원회 주도로 ‘인공지능 개발 활용에 관한 인권 가이드라인’이 만들어지기도 했다.
지난 흐름을 짚던 조 대표는 “우리나라는 이미 오래전부터 인공지능에 대한 나름대로의 규제 프레임을 만들기 위해 여러가지 노력들이 있어왔다”며 의견을 밝혔다.
“사실 초기에는 인공지능을 어떻게 하면 산업적으로 발전시킬 것인지에 대한 접근이 있었습니다. 기술적으로 미국이나 다른 국가에 인공지능 분야가 뒤져 있다는 인식 때문에 ‘진흥’ 관점에 논의가 많았죠. 하지만 이후 AI와 가장 대척점이라 할 수 있는 개인정보 이슈가 부각되며 윤리와 관련된 이슈가 제기됐습니다. 결과적으로 최근에는 규제 필요성에 대한 보도들이 많아지고 있고요. 특히 어떻게 해야 합리적으로 규제할 수 있는지에 대한 논란이 지속되는 상황입니다.”
조 대표에 따르면 이제까지 우리나라 국회에서 발의된 인공지능 관련 법안은 약 13개 정도에 달한다. 이는 지난해 포괄적인 인공지능법 제정으로 연결되는 과정에서 적잖은 진통을 겪었다. 현재는 인공지능과 관련된 첨예한 이슈들이 논란이 되는 와중에 법안은 총선 정국을 맞이해 계류 상태에 머물고 있다.
조 대표는 이제까지 발의된 법안들의 내용을 사례로 들며 “앞서 언급한 흐름과 같이 초기에는 인공지능을 진흥하는 내용이라면 최근에 발의된 법은 EU와 유사한 느낌의 리스크 베이스 어프로치(위험 단계별 규제)로 접근하는 방식이 제안되고 있다”고 의견을 밝혔다.
“EU의 경우 인공지능을 금지할 영역, 저위험 영역, 고위험 영역으로 나누고 금지된 영역은 개발 자체를 금지하고 그 외 영역은 우선 허용하고 사후적으로 규제하겠다는 원칙을 담고 있죠. 저위험의 경우는 일정한 기준과 절차를 따르도록 하는 반면 고위험은 정부의 역할이나 사업자의 책무, 이용자의 권리를 자세히 규정하고 있습니다. 문제는 EU의 인공지능법에 비해 국내에서 발의된 인공지능 법안은 포괄적이고 디테일하지 않다는 점입니다. 물론 시행령이나 시행규칙, 정부 고시 등을 통해 보완될 수는 있지만, 디테일한 레벨을 잘 관리해 법안을 만드는 것이 현재 우리나라의 과제라고 할 수 있죠.”
이어 조 대표는 “현재 국내에서 추진중인 통합 법안 역시 선 허용 사후 규제 내용이 명문화 될 가능성이 높다”며 “중요한 것은 고위험 영역의 인공지능을 어떻게 정의할 것인가”라고 지적했다.
“현재 우리나라 인공지능법이 EU와 유사한 부분이 있는 상황에서 EU에서 당시 인공지능법이 발의되며 진행한 설문조사를 볼 필요가 있습니다. 당시 유럽의 스타트업들에게 ‘과연 EU의 인공지능법이 스타트업의 사업에 어떤 영향을 미칠 것 같나’라는 질문을 했죠. 이에 당시 유럽의 AI 스타트업 중 약 33% 정도가 현재 자신들이 준비하는 서비스가 ‘고위험 영역에 해당할 것 같고 법이 그대로 적용 될 경우 사업을 계속하기 어려울 것 같다’고 답했다고 합니다. 그만큼 고위험 영역은 규제가 심하기 때문에 어떻게 영역을 구분할 지가 매우 중요한 상황이죠.”
인공지능 스타트업이라면… 규제 파악과 대비 필요
조 대표의 말에 의하면 AI 기술 기반 스타트업의 경우 인공지능법과 관련된 규제를 파악하고 대비하는 노력이 필수적인 상황이다. 물론 이를 예측하는 것은 쉽지 않다. 아직 법이 통과되기 전인데다가 그에 따른 시행령이나 규칙 등의 가이드라인도 나오지 않은 상황이기 때문이다.
다만 조 대표는 EU의 인공지능법을 비롯해 국내외에서 논의되고 있는 인공지능 규제와 관련된 내용을 고려하며 “이용자 윤리 부분이 계속 논의되는 상황에서 입법에 반영될 가능성이 높다”고 의견을 밝혔다. 이어 조 대표는 “현재 개인정보법과 비슷한 느낌으로 생각하면 이해가 빠를 것”이라며 말을 이어갔다.
“최근 개인정보와 관련된 사업을 한다면 기본적으로 체크리스트가 엄청 두껍죠. 인공지능법도 마찬가지일 가능성이 있다고 보시면 될 것 같습니다. 중요한 것은 고위험 인공지능에 대해 어떤 의무가 부과될 것인지 인데, 예를 들면 인공지능의 작동과정이나 결과 등이 논리적이고 객관적으로 설명 가능해야 한다는 내용이 있습니다. 이는 EU 인공지능법에도 포함돼 이는 내용이예요. 문제는 최근 논의되는 생성형 인공지능과 관련된 서비스들이 위험에 대한 논의를 하면서 자사 서비스에 적용된 인공지능이 어떤 과정을 통해 이런 결과를 가져오는지 잘 모르겠다고 얘기하는 경우가 많다는 겁니다. 또 인공지능 최고 권위자들 조차도 정확한 작동 과정이나 내용에 대한 설명이 쉽지 않다고 하는 상황이라 향후 법에서 어느 정도까지 설명을 요구할지가 관건입니다. 어떻게 보면 기업의 영업 비밀과도 관련돼 있는 부분일 수도 있으니까요. 또 이용자에게 서비스가 인공지능에 기반해 운영된다는 사실을 사전 고지하도록 하는 내용도 있습니다.”
한편으로 발표 말미, 조 대표는 “개인적으로 EU의 엄격한 규제 기준을 우리나라도 반드시 따라야 한다고 보지는 않는다”며 “규제가 결국 진입 장벽이 될 수 있는 만큼, 우리 나름의 합리적인 기준을 만드는 것이 중요하다”고 의견을 밝히기도 했다.
“EU에서는 이미 광범위한 내용의 인공지능법이 통과가 됐고 미국 역시 다양한 규제 프레임들이 나오고 있기 때문에 이런 사례들을 우리가 충분히 검토할 필요는 있습니다. 다만 중요한 것은 우리나라의 특수성입니다. EU와 같이 심하게 규제할 필요는 없지만, 그렇다고 신경을 덜 쓰게 되면 미국의 그 빅테크들이 우리나라 인공시장을 독점하는 상황도 발생할 수가 있습니다. 이런 사항들을 고려해 규제와 진흥사이에서 적절한 밸런스를 찾는 것이 우리나라 인공지능 규제에 있어서 가장 고민거리라 할 수 있겠습니다. 앞서 언급한 바와 같이 EU의 경우가 두터운 법을 통해서 모든 것을 규제한다는 입장이라면 우리는 조금 더 민간에 맡겨 둘 영역들을 놔둘 필요가 있지 않나 싶습니다. 또 규제가 있더라도 일부는 규제샌드박스와 같이 예외를 둘 수 있는 여지도 조금은 법률에서 마련해 두면 좋겠다는 것이 제 생각입니다.”