[AI요약] AI와 관련해 현 시점에서 논의되는 현실적인 이슈는 ‘인공지능이 불러올 미래의 변화’다. 이는 인간 중심이라는 전제로 이어져온 윤리적 문제에도 영향을 미치고 있다. 이와 관련 지난 12일, 이상욱 한양대학교 철학과·인공지능학과 교수가 나서 ‘AI 윤리, 혹은 초연결 디지털 사회에서의 사람중심 가치 실현’을 주제로 진행된 ‘K-MOOC 오프라인 특강’은 AI 윤리 문제를 둘러싼 여러가지 쟁점과 나아가야 할 방향을 진단하는 자리가 됐다.
인공지능(AI)이라는 용어는 1955년 미국 전산학자이자 인지과학자인 존 매카시(John McCarthy)가 ‘지능이 있는 기계를 만들기 위한 과학과 공학’이라는 논문에 처음 언급한 것으로 알려졌다. 이는 이듬해 미국 다트머스 대학교에서 개최한 학회를 통해 학계에 확산됐다.
하지만 그 개념 자체는 1943년 워렌 맥컬로치(Warren McCulloch)와 월터 피츠(Walter Pitts)에 의해 ‘인공 신경망 모델’로 등장했으며, 1950년 영국의 수학자이자 컴퓨터과학자인 앨런 튜링(Alan Turing)이 ‘생각하는 기계’의 구현 가능성을 언급하며 구체화 됐다.
이후 AI의 미래를 상징하는 용어인 ‘기술적 특이점’이 1953년 수학자 존 폰 노이만에 의해 언급됐다. 그는 현재 컴퓨터 구조를 처음 제안한 인물이다. ‘기술적 특이점’이 다시금 세상의 관심사가 된 것은 수십년이 지난 1993년 3월 미항공우주국 산하 루이스 조사센터와 오하이오항공우주 연구소가 후원한 심포지움에서 수학자, 컴퓨터 과학자이자 SF소설가 버너 빈지(Vernor Vinge)가 ‘인공지능이 불러올 미래의 변화’를 정의하기 위해 언급하면서부터다.
‘도래할 기술적 특이점:포스트휴먼 시대의 생존법’이란 제목으로 발표된 버너 빈지의 에세이에는 향후 30년 내에 인간을 뛰어넘는 지성을 창조해낼 기술적 수단을 갖추게 된다는 예측이 담겨 있다. 물론 그로 인해 인간의 시대는 종말 할 것’이라는 디스토파아적인 예측이 포함됐지만 현 시점에서 논의되는 현실적인 이슈는 ‘인공지능이 불러올 미래의 변화’다. 이는 인간 중심이라는 전제로 이어져온 윤리적 문제에도 영향을 미치고 있다.
AI 기술, 선진국만의 전유물은 아닐 것
오픈 소스 기반의 AI 프레임워크인 ‘시드 토큰(Seed Token)’의 공동 설립자인 마크 스티븐 메도우스(Mark Stephen Meadows)는 “인공지능은 사람들이 알고 있는 지식보다 더 많은 지식을 축적하고 분석할 수 있기 때문에 윤리적인 문제를 안고 있을 수 밖에 없다”고 언급한 바 있다.
실제 AI 기술은 근 10여년 사이, 해를 거듭하며 놀라운 발전을 이어가고 있다. 그 발전 속도가 더욱 빨라질수록 함께 대두되는것인 AI가 가져올 위험성과 부작용이다. 앞서 언급된 바와 같이 SF소설 등에서 AI가 인간에 위해를 가하는 디스토피아적인 우려는 실질적인 기술 발달과 함께 현실적인 대책마련으로 이어지고 있다.
AI 기술의 선도국이라 할 수 있는 미국, 유럽은 물론 2021년 11월에는 국제기구인 유네스코(UNESCO) 조차도 ‘유네스코 인공지능 윤리 권고’를 채택하며 AI 기술이 침해할 수 있는 인간의 인권과 기본적인 자유를 보호할 방안을 제시하기도 했다.
이와 관련 지난 12일, 이상욱 한양대학교 철학과·인공지능학과 교수가 나서 ‘AI 윤리, 혹은 초연결 디지털 사회에서의 사람중심 가치 실현’을 주제로 진행된 ‘K-MOOC 오프라인 특강’은 AI 윤리 문제를 둘러싼 여러가지 쟁점과 나아가야 할 방향을 진단하는 자리가 됐다.
2018년 유네스코 세계과학기술윤리위원회 위원으로 위촉된 바 있는 이상욱 교수는 이날 “인공지능 분야는 굉장히 빨리 변화하고 특히 AI 윤리와 관련된 쟁점들은 지금 국제적으로 굉장히 활발한 논의가 이뤄지고 있다”며 특강을 시작했다.
이 교수에 따르면 이제 AI는 세계적으로 모든 초연결 디지털 기술의 기저 기술이 될 것이라는 합의가 이뤄진 상태다. 실제 AI 기술은 분야를 막론하고 적용되고 있다. 심지어는 인간 고유의 영역으로 여겨졌던 예술, 문학 등 창작의 영역까지 침범하는 상황이다. 이 교수는 이러한 AI 기술이 선진국 주도의 기술 경쟁에 새로운 패러다임을 불러오고 있다는 점을 언급했다.
“최고는 아니지만 우리나라 AI 기술도 상당한 수준입니다. 그런데 최근의 현상을 보면 한국을 비롯한 미국, 유럽 등 기술 선진국만이 아닌 저개발 국가들, 이를테면 아프리카 지역과 같이 여러 사회 인프라나 기술이 제대로 안갖춰진 국가들 역시 초연결 디지털 사회를 지향하고 있죠. 마치 개구리가 뛰는 것처럼 중간 단위 기술을 모두 건너뛰고 바로 초연결 디지털 사회로 가겠다는 거죠.”
이 교수는 그와 같은 저개발 국가의 시도가 ‘불가능한 것이 아니’라고 강조했다. 3차 산업혁명까지 이어진 기술 개발은 화학, 기계, 정보통신과 관련된 인프라 구축이 필요했지만, AI의 경우 그런 인프라 없이도 선행국들이 치른 실패비용을 치르지 않고 효율적으로 따라잡을 수 있다는 것이다.
AI는 ‘낯선’ 지능, 새로운 윤리 체계 정립 필요
이어 이 교수는 세계적으로 AI에 대한 윤리적 문제 제기가 이어지는 이유에 대해 인간 중심의 관점에서 전혀 이해할 수 없는 방식으로 문제를 해결하는 AI의 특성 때문이라고 진단했다. 이른바 ‘낯선 지능’이다.
“우리가 지능에 대해 판단할 때 그 기준은 항상 인간입니다. 예를 들어 침팬지는 인간의 5세에 해당하는 지능을 가졌다고 얘기하죠. 그런 판단의 전제는 사람의 지능을 기준으로 한다는 겁니다. 다른 모든 존재들의 지능을 사람의 척도로 5세, 6세, 2세 수준 등으로 부여해 왔죠. 그런데 이 방식이 AI에는 안 먹히게 된 거예요. 흔히 얘기하는 특이점이 아니더라도 이미 우리가 사용하는 AI는 결과론적으로 봤을 때 수행 능력면에서는 이미 인간지능을 뛰어넘었거든요. 대표적인 예가 네이게이션이죠. 익숙치 않은 지역에서 네비게이션보다 더 빨리 길을 찾을 수 있는 사람은 없죠.”
이 교수가 강조하는 바에 따르면 AI는 문제 해결 과정에서 인간과 전혀 다른 방식을 접근한다. 거기에 인간처럼 생각하고 목표점을 고려하고, 고민하거나 불안해하는 과정은 존재하지 않는다. 심지어 이 낯선 지능은 인간 고유의 영역으로 일컬어졌던 예술까지 모방하고 있다. 이 교수는 그 례로 ‘넥스트 렘브란트(Next Rembrandt)’를 언급하며 AI 기술 발달의 현주소와 함께 한계도 지적했다.
“AI는 인간의 지적 성취 과정과 전혀 다른 방식으로 문제에 접근하죠. 의식적인 경험이나 정신적인 활동 업이 오직 계산만으로 해결하지만, 그럼에도 결과는 기가막히게 잘 나와요. 그 대표적인 예가 ‘넥스트 렘브란트(Next Rembrandt)’에요. 물론 AI가 모든 것을 다 한 것은 아니예요. 렘브란트 전문가가 작업에 참여했기 때문에 가능했죠. 아직까지는 반드시 인간과의 협업을 통해서만 가능하는 말이에요. SF영화와 같이 인간과 완전히 구별된 상황에서 혼자 모든 것을 하는 AI는 지금도 없고 당분간도 나올 가능성은 거의 없어요.”
즉 현재의 AI 기술이 문제 해결을 위해서는 ‘반드시 인간의 도움을 필요로 한다’는 점은 AI의 윤리 정립이 대두되는 이유와도 연결될 수 있다. 이와 관련해 이 교수는 본인이 참여했던 유네스코의 AI 윤리 원칙을 언급하며 말을 이어갔다.
“우리의 윤리라는 개념을 국어사전에서 보면 사람을 대상으로 하고 있어요. 굉장히 명명백백한 것에만 적용이 되고 선악을 구분해 악은 비윤리적이라는 관점이죠. 이는 AI를 둘러싼 저작권 논란과도 비슷해요. 반면 국제적 의미에서 ‘에식스(Ethics, 윤리)’는 우리나라처럼 제한적인 의미가 아니라 고대 그리스의 도시국가 시대 민주정치에서 사람들 사이에 상호작용하는 과정의 인격을 의미하고 있어요. 그런데 그런 에식스는 도시국가마다 조금씩 기준이 달랐죠. 그런 도시국가들이 페르시아와 대항해 전쟁을 하게 되면서 협력하기 위해 조금씩 다른 에식스를 협의하고 합의점을 도출해 함께 지키자라고 한거죠. 우리나라의 윤리와 에식스 중 어느 게 올바르다는 게 아니라 규범적인 정의의 문제인 거죠.”
다만 이 교수는 AI 윤리를 둘러싼 국제적 논의의 배경에 에식스가 있음을 지적했다. 즉 AI 윤리 문제에서 우리말의 고유한 ‘윤리’ 개념을 갖고 참여한다는 생산적인 의사소통이나 논의 참여가 어려울 것이라는 말이다.
“어떤 경우에는 (AI 기술 발달에 따라서) 우리의 사회 제도를 바꿔야 할 수도 있고, 때로는 우리가 소중하게 생각하는 기본 인권 같은 것을 AI가 확실히 존중하도록 기술 설계 단계에서부터 신경써야 할 수도 있죠. 그걸 데이터 수집 과정에서부터 존중하도록 법제화할 수도 있고, 올바르게 AI를 사용하는 방법을 사람들에게 교육시킬 수도 있어요. 이런 모든 것들이 에식스의 개념이죠.”
AI에 인간중심주의를 어떻게 요구해야 할까?
이어 이 교수는 ‘인공지능 교과서’로 불리는 스튜어트 러셀의 저서 ‘Human Compatible’를 예로 들며 ‘Human in the loop’ ‘Human on the loop’ ‘Human over the loop’를 각각 설명했다.
“AI의 위험성이 있기 때문에 사람들은 AI가 굉장히 중요한 결정을 할 때 우리가 소중히 여기는 가치를 훼손하지 않았는지 점검해야 하고 그것은 항상 인간 중심이 돼야 한다는 것은 유네스코를 비롯해 모든 국제적 AI 원칙에 들어가 있어요. 중요한 것은, 그렇다면 어떻게 AI를 설계해서 원칙을 적용시킬 것이냐인데, 이것은 굉장히 복잡한 주제죠. 여기서부터 논의가 필요해요. ‘Human in the loop’는 AI 결정 단계에 사람이 점검하자는 거죠. 문제는 사람도 실수를 한다는 거죠. 결국 AI의 책임을 묻는다는 개념 자체가 설정되지 않은 상황에서 사람에게 책임을 묻겠다는 거죠. 또 다른 문제는 AI 효율성이 저해된다는 점이에요. 반면 Human on the loop’ ‘Human over the loop’는 통상적인 상황은 AI에 맡기고 필요할 경우 혹은 위기상황에만 체킹을 해서 제대로 결정하는지 보겠다는 방식이에요. 사실 현재 AI가 작동하는 대부분의 방식이기도 하죠. 물론 AI가 사용되는 맥락이나 다루는 문제에 따라 또 달라지는 부분이 있기도 해요.”
이어 이 교수는 “정치적이거나 윤리적으로 민감한 사안에 대해서는 사전에 AI 윤리 평가를 해서 그 결과에 따라 AI 사용 여부를 결정하는 제도들이 준비중”이라며 “어떤 형태가 될지 몰라도 조만간 시행될 가능성이 높다”고 언급하며 다양한 사례를 설명하기도 했다.
AI 기술의 잠재력은 상상 이상, 효용성을 해치지 않는 적절한 규제 필요
강연 말미, 이 교수는 “AI 기술이 인류에게 혜택을 줄 수 있는 잠재력은 어마어마하고 우리는 그것을 다 누릴 필요가 있다”면서도 “AI는 완성된 기술이 아닌 만큼 설계 단계의 고려, 윤리 영향 평가 등을 통해 굉장히 조심스럽게 사용해야 한다”고 강조했다.
“AI의 잠재력을 최대한 끌어올리면서도 오용되거나 기존의 사회적 편견들을 확대 재생산하는 위험성을 막으려는 노력이 동시에 필요해요. 그런 과정에서 우리에게 필요한 태도는 처음부터 규제하기 보다 사용방식을 반영해가며 상호작용적으로 적응을 거쳐 거버넌스를 확립해야 한다는 거죠.”
그렇다면 상호작용을 통해 진행되는 AI 규제는 어느 선에서 이뤄져야 할까? 이 교수는 대표적인 사례로 ‘무연 휘발유’를 꼽았다. 과거에는 납 성분을 첨가한 ‘유연 휘발유’가 주류를 이뤘다. 하지만 이 유연 휘발유가 인체에 질병을 유발한다는 사실일 밝혀진 후 규제를 통해 납을 첨가하지 못하도록 규제했고, 그로 인해 등장한 것이 무연 휘발유다. 그 과정에서 자동차 엔진은 큰 기술적 발전을 이룩하게 된다.
“규제하지 않았으면 일어나지 않았을 엔진 효율성을 높이는 기술 혁신을 규제를 통해 이끌어 낸 거죠. 이를 통해 AI 역시 규제가 적절하게 기술 발전을 이끌어 낼 수 있는 방식으로 진행됐을 때 인류에 도움이 될 수 있다고 봅니다. 또 우리나라에서 최근 코딩 교육 열풍이 불고 있는데, 그보다는 AI 기술의 특징과 AI를 사용해서 일을 수행하는 것의 의미, AI의 위험성을 막기 위해 어떤 요인들을 설계 과정에서 포함해야 한는지 등을 가르치는 AI 윤리 교육이 더 필요하다고 생각합니다. 이건 제 주장이 아니고 유네스코 등에서 나온 AI 윤리 원칙의 내용이에요.”
이어 이 교수는 AI 기술을 둘러싼 데이터 윤리와 개인정보 보호, 포스트휴머니즘의 관점에서 통계적 평균값의 오류 등을 언급하며 무분별한 AI 기술 적용이 불러올 수 있는 우려상황들을 설명하기도 했다. 강연을 마치며 이 교수는 세계 각국이 AI 윤리에 대해 원칙 수립을 넘어 실행으로 넘어가고 있음을 강조했다.
“AI 역신을 막자는 것이 아니라 최대한 그 혁신을 살리면서도 바람직하지 않은 사회적 폐해들을 막을 수 있는 방안을 함께 고민할 필요가 있어요. 이와 관련해 인공지능 권리장전의 청사진이 지난해 11월 미국 백악관에서 나왔습니다. 현재 진행 중인 거죠. 몇 년이 걸리겠지만, 그 내용이 꽤 센 편입니다. 알려진 바에 따르면 AI 기반 기술을 만들 때 기업들은 이 기술이 사람을 차별하지 않고 문제가 되지 않는다는 것을 보여줘야 하죠. 국제적인 흐름도 마찬가지에요. AI 윤리는 이제 단순히 이런 걸 지켜야 된다 수준을 넘어 원칙에서 실행 단계로 접어들고 있는 중이에요. 이와 관련해 우리나라에서도 더 활발한 논의와 실행이 필요한 시점이죠.”
소셜댓글