머스크와 석학들, 폭주기관차 같은 AI 막자···AI 통제 촉구 향배는?

“챗GPT-4보다 더 똑똑한 인공지능(AI) 개발(AI 훈련)을 6개월 간 중단해야 한다. 이 중단은 공개적이고 검증 가능해야 하며 모든 주요 행위자를 포함해야 한다.”

AI기반 챗GPT4가 세계적으로 선풍적 인기를 얻고 있는 가운데 ‘AI에 대한 통제력 상실’을 우려한 AI 비평가와 석학 1000여명이 AI 개발을 6개월 간 중단할 것을 요구하는 공개서한을발표했다.

이 서한은 29일(현지시각) 생명의 미래 연구소(Future of Life Institute·FLI) 명의로 발표됐다. 생명의 미래 연구소는 생명공학, 핵무기, 그리고 기후 변화를 포함해 인류가 직면한 실존적 위험에 대해 우려하는 과학자 그룹에 의해 2014년에 설립된 비영리 단체다. 또한 AI로 인한 가상의 실존적 위험은 그 그룹 활동의 핵심을 이루고 있다. 로이터 통신에 따르면 이 단체는 주로 머스크 재단, 런던에 기반을 둔 효과적인 이타주의 단체인 ‘파운더스 플레지’, 그리고 실리콘 밸리 커뮤니티 재단에서 자금을 지원받고 있다.

AI가 미칠 부작용을 우려하면서 일시 중단에 대한 검증과 함께 6개월간 대책을 마련하라는 이 공개서한은 통제불능이 돼 인류에 해를 끼칠지 모를 AI에 대한 대책을 촉구하고 있다. 이번 움직임은 그동안 나온 개별적 발언보다 강도도 세고 영향력도 클 것으로 보인다.

최근 나온 챗GPT 관련 보고서는 3억명의 인류직업에 영향을 미친다는 내용과 함께 블루칼라는 물론 화이트칼라 고연봉 직군 일자리도 AI에 안전하지 않다는 점을 새삼 일깨웠다.

이 공개서한의 우려와 주장은 지나치다고만은 할 수 없을 것으로 보인다. 생명의 미래 연구소는 당초 AI가 인류를 돕는 도구일 뿐이라고 주장한 샘 알트먼 오픈AI 최고경영자(CEO)조차도 AI의 급속한 파급력을 인정했다는 점도 소개했다. 이 공개서한이 멈출 줄 모르는 폭주 기관차같이 AI 보급 및 확산 경쟁을 멈추게 될지, 과연 6개월 만에 통제방법이 마련될지 전세계의 관심이 집중되고 있다.

물론 이 공개서한은 빠르게 언론에서 관심을 끌기 시작했지만 소셜 미디어에서는 부분적인 비판을 받고도 있다.

이들이 공개서한에서 밝힌 네가지 질문과 우려, 최근 챗GPT-4 개발업체 오픈AI와 미 펜실베이니아대가 공동 연구한 결과인 AI가 가져올 일자리 위기 보고서를 함께 알아본다. 과연 미국, 영국, 유럽연합(EU)은 이 제안을 채택할까.

“통제 불능 경쟁 시작”경고···그리고, AI에 대한 4가지 질문

AI에 대한 우려에는 모든 일자리 상실과 문명 통제력 상실 같은 시나리오가 포함돼 있다. 일론머스크를 포함한 전세계 AI분야 석학, 작가 등이 AI개발을 잠시 멈추고 그 위협을 줄이기 위한 규제방법을 찾자고 제안했다. 사진왼쪽부터 일론 머스크 테슬라 CEO, AI 신경망과 딥러닝 분야의 세계적 석학인 요슈아 벤지오 몬트리올대 교수, 스티브 워즈니악 애플 공동창업자. (사진=위키피디아)

이 서한은 지난 11월 마이크로소프트(MS)의 지원을 받는 오픈AI의 챗GPT과 챗봇을 뒷받침하는 정교한 모델인 GPT-4의 출시를 포함해 지난 5개월 동안 급속도로 혁신적인 AI 출시가 쇄도한 데 이어 나왔다. 실제로 이달 초 오픈AI는 구성 작업을 수행할 수 있고 인간 수준에서 표준화된 테스트를 통과한다고 알려진 AI 모델인 GPT-4를 출시했다. 물론 그러한 주장은 여전히 연구에 의해 평가받고 있지만 그럼에도 GPT-4와 빙챗의 기능 향상은 우리가 이전에 예상했던 것보다 더 빠르게 초지능 AI 시스템으로 향하고 있는 것으로 여겨진다. 이는 일부 전문가들을 놀래키기에 충분했다.

이는 생명의 미래 연구소가 “최근 AI의 발전으로 예측하거나 제어하기 어려운 AI 모델의 개발과 배치로 ‘통제 불능의 경쟁’을 이끈다”고 주장하는 계기가 됐다.

이들은 최근 급부상중인 AI 시스템의 계획과 관리의 부족이 우려되며 강력한 AI 시스템의 효과가 잘 이해되고 관리될 수 있어야 한다고 생각한다.

이들은 공개서한에서 “인간같은 경쟁력 있는 지능을 가진 AI 시스템은 광범위한 연구에서 보여지고, 최고의 AI 연구소에서 인정받은 것처럼 인류 사회와 인류에 심각한 위험을 초래할 수 있다. 널리 지지를 받고 있는 아실로마 AI원칙(Asilomar AI Principles)에 명시된 바와 같이, 고급 AI는 지구 생명체의 역사에 중대한 변화를 나타낼 수 있으며, 적절한 관리와 자원으로 계획되고 관리돼야 한다”고 선언했다. (아실로마 AI원칙은 인간에 유익한 AI 연구 개발을 쉽게 하도록 하기 위해 만들어진 23가지 지침으로서 AI 개발 이슈, 윤리 및 가이드라인을 개략적으로 설명하고 있다. 2017년 1월 미국 캘리포니아 아실로마 컨퍼런스 그라운드에서 개최한 아실로마 컨퍼런스에서 경제, 법률, 윤리 및 철학 분야의 160여명의 사상 지도자와 연구자들이 유익한 AI 원칙을 논의한 결과 인간에게 유익한 AI 연구를 위한 ‘아실로마 AI 원칙’을 만들었다.)

미래의 생명 연구소는 머스크를 가장 큰 후원자로 꼽고 있으며 매사추세츠공대(MIT) 교수이자 AI 연구원인 맥스 테그마크가 이끌고 있다.

2017년 캘리포니아 아실로마 그라운드에서 아실로마 컨퍼런스 참석자들은 인간에게 유익한 AI개발을 위한 23개 지침으로 된 아실로마 AI원칙을 만들었다. 당시 스티브 호킹, 에릭 드렉슬러, 앤드루 응, 요슈아 벤지오, 스튜어트 러셀, 맥스 테그마크, 제프리 삭스, 앤드루 맥아피, 얀 레쿤, 에릭 브린욜프슨, 데미스 하사비스, 래리 페이지 등 160여명이 참석했다. (사진=위키피디아)

특히 이 공개서한 실린 네 가지 질문은 주목을 끈다. 그 중 일부는 AI에 의한 ‘모든 일자리’의 상실과 ‘문명의 통제력 상실’을 포함해 AI 커뮤니티의 일부 영역에서 매우 논란이 되는 다음과 같은 가상 시나리오를 제시한다.

즉, ▲우리는 기계가 우리의 정보 채널을 선전과 거짓으로 넘쳐나게 해야 하는가? ▲주문품처리(풀필먼트)를 포함한 모든 업무를 자동화해야 할까? ▲우리는 결국 수적으로 더 많고, 더 똑똑하며, 퇴화한, 우리를 대체할지 모를 비인간적인 마음을 개발해야 할까? ▲우리는 우리 문명에 대한 통제력을 잃는 위험을 감수해야 하나? 와 같은 것이다.

AI가 가져올 위협엔 모든 일자리·문명통제력 상실 등의 시나리오가

예상보다 빠르게 똑똑한 AI가 등장하고 더 똑똑한 AI 개발 경쟁이 이뤄지고 있는 상황에서 AI 통제가 가능할까. 사진에서 보듯 챗GPT-4의 시험성적(녹색)은 챗GPT-3.5(청색)의 성능을 크게 추월하면서 급속히 발전 속도를 보여주고 있다. (사진=오픈AI)

이 서한에서는 이러한 잠재적 위협을 해결하기 위해 AI 연구소들이 “최소 6개월 동안 GPT-4보다 강력한 AI 시스템을 교육하는 것을 즉시 중단할 것”을 촉구하고 있다. 또 “이 중단 기간 동안 저자들은 AI 연구소와 독립 전문가들이 협력해 AI 설계 및 개발을 위한 공유된 안전 프로토콜을 수립할 것을 제안한다. 이러한 프로토콜은 독립적 외부 전문가에 의해 감독되며 AI 시스템이 합리적 의심을 넘어 안전함을 보장토록 해야 한다”고 말한다.

그러나 실질적 또는 규제적 의미에서 서한에서 주장하는 ‘GPT-4보다 더 강력한’ 것의 실체가 무엇인지는 불분명하다. 이 서한에는 다중 모드 또는 대형 언어 모델(LLM)의 상대적인 힘을 측정해 이의 준수를 보장하는 방법이 명시돼 있지 않기 때문이다. 게다가 챗GPT를 개발한 오픈AI는 GPT-4의 작동 방식에 대한 기술적 세부 정보를 공개하는 것을 명백히 회피하고 있다.

이 서한에 서명한 인사는 일론 머스크 테슬라 최고경영자(CEO), 신경망과 딥러닝 AI 개척자인 요슈아 벤지오 몬트리올대 교수, 세계적 AI 권위자인 스튜어트 러셀 버클리대 교수, 스티브 워즈니악 애플 공동창업자, 에머드 모스타크 스터빌리티AI CEO, 작가 유발 하라리, 2020년 미국 민주당 대통령 후보 경선에 출마했던 앤드류 양 등이 있다.

이 공개 서한은 인터넷 상의 누구나 검증 없이 서명할 수 있기에 서명 초기에는 빌 게이츠 MS 공동창업자와 샘 알트먼 오픈AI CEO, 가상의 인물인 존 윅 같은 일부 거짓 이름이 포함됐지만 이러한 이름은 나중에 지워졌다.

챗GPT같은 AI가 일자리 빼앗을 위험성···“미국 일자리의 80%에 영향”

오픈AI와 펜실베니아 대학의 연구원들이 챗GPT-4같은 기술이 인간보다 더 빨리 임무를 완수할 수 있는지를 조사한 결과 나온 표. ‘노출’수치는 AI가 작업에 미치는 영향에 비례한다. (사진=펜실베이니아대)

샘 알트먼 오픈AI CEO는 이전에 챗GPT는 인간 노동자를 대체하는 것이 아니라 도구로 보아야 한다고 말했다. 하지만 하지만 최근의 연구 결과는 그렇지 않다는 것을 보여주기에 충분하다.

실제로 연구에 참여한 오픈AI의 연구원 파멜라 미슈킨은 트위터를 통해 “오늘날의 GPT는 많은 것을 할 수 있다. 지난 몇 년 동안 우리는 그들이 (AI와)덜 관련된 더 적은 사례에서 점점 더 많은 복잡한 작업을 점점더 잘 해결하는 것을 보았다”고 쓰고 있다.

그는 이 논문이 현재 사용 가능한 특정 모델이 아닌 이러한 추세를 검토한다고 밝혔다.

챗GPT같은 AI 소프트웨어(SW)가 인간의 일자리를 없애는 것에 대한 두려움은 지난해 11월에 챗GPT의 인간 전문 업무 수행 능력까지 갖춘 것으로 확인되면서 최근 전 세계적으로 파문을 일으키고 있다.

하지만 더 사람들을 우려하게 만드는 것은 단순한 도구로 여겨졌던 이 SW가 지금까지 알려진 그 어느 도구보다도 인간의 일자리 대체에 큰 영향을 미칠 수 있다는 점이다.

이는 지난 29일 챗GPT 개발업체인 오픈AI와 미국 펜실베니아 대학의 공식 연구 발표 결과에서 고스란히 드러났다. 이 연구팀은 “챗GPT와 유사한 AI 시스템은 미국 일자리의 80%에 영향을 미칠 것이며, 개인 재무 자문가와 중개인, 보험사 및 데이터 처리자가 그 목록의 상위에 있다”는 결론을 내리고 있다.

연구팀은 AI를 사용하면 모든 작업자 작업의 약 15%가 훨씬 더 빨리 완료되고 동일한 수준의 품질로 완료될 수 있다는 것을 발견했다.

이 연구는 1016개의 직업과 그들의 1만9265개의 업무 과제를 분석하고 미 노동통계국이 제공하는 2020년과 2021년 직업 고용 시리즈에서 고용과 임금 데이터를 얻었다. 그런 다음 팀은 AI 기능이 있는 데이터를 교차 분석하여 기술로 수행할 때 어떤 위치가 더 원활하게 실행될 수 있는지 확인했다.

이 연구는 86개의 직업이 AI에 ‘완전히 노출’된 것으로 판단했으며, 몇몇 직업은 100% 노출 점수를 받았다. 여기에는 법률 비서, 임상 데이터 관리자, 웹 디자이너 및 언론인이 포함됐다.

하지만 그래픽 디자이너, 마케팅 전략가, 재무 관리자들은 15% 미만의 노출점수를 받았다.

설거지하는 사람, 전기 기사, 이발사와 같은 저임금 일자리들도 AI로부터 안전한 것으로 나타났다.

약사, 변호사, 천문학자의 평균 수입은 8만 1980달러이지만, 이러한 직업은 AI 노출도가 높지 않은(AI로부터 안전한) 것으로 나타났다.

AI발전 속도가 인류가 적응하기에 너무 빠르지 않은가

챗GPT 발전 속도가 예상보다 빨라지면서 생명의 미래 연구소(FLI)는 29일(현지시각) 오픈AI의 GPT-4가 세계를 장악할 위험성을 막기 위해 당장 6개월간 AI개발을 멈추고 인간이 AI 통제력을 찾을 방법을 찾아보자고 공개서한을 통해 제안했다. 전세계 1000명 이상의 저명 인사들이 AI의 개발을 멈추고 AI를 통제할 방법을 찾아야 한다며 공개서한에 서명했다. (사진=FLI)

사안의 심각함을 경고하는 공개편지의 긴급한 어조에도 불구하고, 모든 사람들이 AI로부터 잠재적인 실존적 위험을 받아들이는 것은 아니다. 따라서 일부는 가정에 덜 기초한 다른 AI의 해악에 먼저 초점을 맞추는 것을 선호한다. AI 커뮤니티의 파벌들 사이에는 어떤 잠재적 AI 위험에 초점을 맞춰야 하는지에 대한 강한 불연속을 보이고 있다.

일부 비평가들은 GPT-4보다 뛰어난 AI가 아니라 기존의 GPT-4(의 위험성까지)도 문제 삼고 있을 정도다. 일례로 저명한 AI 윤리학자 팀니트 지브루는 트위터에 “그들은 사람들이 GPT-4보다 더 강력한 것을 사용하지 못하도록 하길 원하지만 GPT-4는 괜찮은가?”라고 묻고 있다.

결과적으로 AI 안전/윤리 논쟁의 양쪽에 있는 많은 사람들은 지난 1년 동안 AI 공간의 변화 속도가 압도적으로 빨랐으며, 그렇기 때문에 법률 시스템, 학술 연구원, 윤리 학자 및 문화가 잠재적으로 경제의 급격한 변화를 촉발할 준비가 된 이 새로운 도구(AI)에 적응할 시간을 거의 주지 못했다는 데 동의하고 있다.

오픈AI조차도 더딘 AI발전 촉구···실현 가능성은?

챗GPT를 만든 오픈AI CEO조차도 AI의 더딘 발전을 촉구한 바 있다. 사진은 샌프란시스코에 있는 오픈AI본사. (사진=위키피디아)

공개 서한에서 지적됐듯이 챗 GPT를 만든 오픈AI조차도 AI의 더딘 발전을 촉구하고 있다.

올해 초 발표된 AGI(인공일반지능, 대개 인간과 동등하거나 이를 넘어서는 수준의 AI를 의미한다)에 대한 성명에서 오픈AI는 “어느 시점에서, 미래의 시스템을 훈련하기 시작하기 전에 독립적인 검토를 받는 것이 중요할 수 있다. 그리고 새로운 모델을 만드는 데 사용되는 컴퓨팅의 증가 속도를 제한하는 데 동의하는 가장 진보적인 노력이 필요하다”고 밝힌 바 있다. (오픈 AI는 지지서명을 하지는 않았다.)

생명의 미래 연구소는 “그러한 AI의 성장을 제한할 때가 바로 지금이며, ‘모든 (AI개발)핵심 주체’가 AI 연구를 늦추는 데 곧 동의하지 않는다면, 정부가 개입해 일시적 정지조치를 해야 한다고 믿는다”고 말하고 있다.

이 공개서한은 일부 빅테크 기업들이 AI 윤리 팀을 축소하고 있지만 각국 정부가 AI 분야에서 빠르게 진화하는 분야에 대한 정책 대응을 마련하기 위해 서두르고 있는 가운데 나았다.

하지만 정부 규제 전선에는 어려움이 있을 수 있다.

가디언 같은 매체는 일례로 “엄격한 규제에 대한 요구는 29일 발표된 새로운 힘을 전혀 포함하지 않는 영국 정부의 대표적 AI 규제 백서와 극명하게 대조된다”고 지적하고 있다.

아스테크니카는 최근 미국에서는 특히 GPT-4와 같은 대형 언어 모델과 관련해 AI에 대한 잠재적 규제에 대한 정부의 합의가 거의 없는 것으로 보이는 상황이라고 전했다. 바이든 행정부는 지난 10월 AI 피해로부터 미국인을 보호하기 위해 ‘AI 권리장전(AI Bill of Rights)’을 제안했다. 하지만 법으로 뒷받침되는 문서가 아니라 제안된 가이드라인 역할을 하는 데 그친다. 또한 가이드라인이 작성된 후 나타난 AI 챗봇의 잠재적 피해를 구체적으로 다루지는 않고 있다.

반면 파이낸셜타임스(FT)는 유럽연합(EU)이 유럽에서 AI를 사용하는 방식을 규율하는 자체 법안을 준비 중인 가운데 기업이 해당 법을 위반했을 경우 3000만유로(약 424억여원) 또는 연간 매출액의 6% 중 더 큰 금액을 벌금으로 부과하는 방안을 논의 중이라고 전했다.

생명의 미래 연구소의 공개 서한에 제시된 요점이 앞으로 나아갈 최선의 방법을 제시하든 그렇지 않든 간에, AI 모델의 파괴적인 힘은 (일부 주장처럼) 슈퍼 인텔리전스(초지능)를 통해서든, 또는 (다른 일부 주장처럼) 과도한 허풍으로 가득 찬 무모한 AI 출시를 통해서든 결국 규제 기관의 문턱에 이를 것으로 보인다.

전세계에 생성AI 열풍이 불고 있는 가운데 과연 각국 정부, 특히 AI강국 미국정부가 과연 세계적 석학들의 의견을 반영해 6개월간 AI개발을 유예하고 대책을 내놓을 수 있을까.

이재구 기자

jklee@tech42.co.kr
기자의 다른 기사보기
저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지

관련 기사

‘드론? UFO?’ 미국 상공 ‘자동차 크기 비행체’ 정체는?

바다 위를 비정상적인 패턴으로 비행하는 자동차 크기 만한 비행체 50대를 목격한다면? 내 머리 위를 날고 있는 스쿨버스 크기 만한 비행체를 목격하게 된다면? 현재 미국 전역 상공에서 목격되고 있는 미스터리한 비행체에 대한 불안감이 커져가면서, 진실을 요구하는 여론이 거세지고 있다.

‘1km 밖 인마살상’ 소형드론엔···초강력 레이저 총 탑재

중국 인민해방군 산하 중국 국방과기대학(國防科技大學) 연구진이 그동안 불가능한 것으로만 여겨져 왔던 사람은 물론 장갑차 철판까지 뚫는 초강력 레이저총을 탑재한 소형 드론 개발에 성공했다. 소형 드론에 강력한 레이저총을 탑재할 수 있는 기술력은 지금까지 불가능한 것으로 여겨져 왔기에 주목받고 있다. 이를 이용하면 육안으로는 피아 식별조차 불가능한 1km 밖 거리에서도 적군을 정확히 공격할 수 있다.

[인터뷰] 백명현 스테이지랩스 대표 “아티스트와 팬을 연결하는 양방향 라이브 플랫폼을 만들고 있습니다”

지난 2016년 백명현 대표가 창업한 스테이지랩스는 K-팝 디지털 포토카드 플랫폼 ‘tin(틴)’을 비롯해 CJ ENM과 전략적 협업을 통해 탄생한 글로벌 K-팝 컬쳐 플랫폼 ‘엠넷플러스’, 최근 론칭한 ‘링크(liNC)라는 삼각 사업 포트폴리오를 구축하기에 이르렀다. 그렇게 확보한 글로벌 이용자 수가 무려 1200만명에 이른다. 특히 자체 개발 플랫폼 ‘링크(LiNC)의 경우 이용자의 84%, 누적 매출의 95%가 글로벌에서 발생하는 상황이다. 갖 론칭한 플랫폼이라는 점에서 놀라운 지표가 아닐 수 없다.

트럼프 2기 행정부, AI규제 완화한다는데... AI 산업계 어떻게 달라질까?

도널드 트럼프 전 대통령의 재선으로 미국의 AI 정책이 큰 변화를 맞이할 전망이다. 트럼프 2기 행정부는 AI 혁신과 국가안보를 최우선 과제로 삼고, 바이든 행정부의 AI 규제를 대폭 완화할 것으로 보인다.