여기저기서 챗(Chat)GPT 이야기로 떠들썩 하다. 이전의 인공지능(AI) 기술이 ‘언젠가 닥칠 미래의 막연함’이었다면, 챗GPT는 실제적이고 일상에 즉시 적용이 가능한 방식으로 충격을 주고 있다. 기자의 개인적인 경험을 이야기하자면 최근 한 정책 토론회 취재 중 토론자 중 한 명이 “챗GPT에게 정책 이슈의 해결 방법을 물어왔다”며 그 내용을 발표하는 것을 볼 수 있었다. 몇몇 언론사에서는 챗GPT 가 작성했다는 점을 명시하는 기사를 발행하기도 했다. 잠시 ‘AI에게 밥그릇을 빼앗길 수도 있다’는 두려움이 엄습했다.
그러나 그런 두려움은 곧 가소로워졌다. 챗GPT로 인한 변화는 아직 시작도 되지 않았다는 사실 때문이다. 이는 최근 챗GPT 를 공개한 ‘오픈AI’의 CEO 샘 올트먼이 자사 사이트에 올린 ‘AGI를 위한 계획과 그 너머(Planning for AGI and beyond)’를 통해 더욱 명확하게 와닿고 있다.
확고한 사명감을 담은 올트먼 CEO의 글이 아니더라도 챗GPT가 현재 과시하고 있는 성능만으로도 예측 할 수 있는 것은 ‘챗GPT가 앞으로 점점 더 우리 일상 생활과 통합될 것’이라는 점이다. 아직은 완벽하지 않고, 조금은 어설픈 면도 보이고 있지만, 이미 알려진 상식 수준에서 짐작해봐도 AI는 현재의 경험을 지속적으로 학습하고 있을 것이다. 챗GPT가 향후 보다 완벽하고 보다 사용하기도 쉬워질 것이라는 것은 이제 불 보듯 뻔한 상황이 돼 버렸다. 그렇다면 그 다음은 무엇일까. 바로 인간을 넘어서는 AI 시스템, AGI(Artificial general intelligence, 인공일반지능)의 도래다.
이에 테크42는 샘 올트먼 CEO의 글을 통해 그가 그리는 AGI, 그리고 이것이 인류에게 도움이 되는 방향으로 발전하기 위해 필요한 조건들을 살펴보았다.
인간보다 더 똑똑한 AI의 등장, 그리고 장밋빛 예측
샘 올트먼 오픈AI CEO는 ‘AGI를 위한 계획과 그 너머’ 서두에서 “우리의 임무는 일반적으로 인간보다 더 똑똑한 인공일반지능(AGI, Artificial general intelligence)-AI 시스템이 모든 일류에게 혜택을 줄 수 있도록 하는 것”이라고 언급했다.
그가 이야기하는 AGI의 탄생은 인간이 할 수 있는 모든 지적 작업을 수행할 수 있는 능력을 AI 시스템이 갖추게 되는 것을 의미한다. 이를테면 현재 챗GPT는 제한적으로 자연어를 이해하고 복잡한 데이터를 해석하는 능력만을 보여주고 있지만, AGI가 개발되면 인간을 뛰어 넘는 수준에 도달이 가능하다는 것이다.
이와 관련 올트먼 CEO는 “AGI가 성공적으로 개발되면, 이 기술은 풍요를 증진하고 세계 경제를 활성화하며 가능성의 한계를 바꾸는 새로운 과학 지식의 발견을 지원해 인류를 향상시키는데 도움이 될 수 있다”고 언급했다.
이는 철저히 AI가 바꿀 긍정적인 미래상에 기반한 예측이라 할 수 있다. 실제 그는 “AGI는 모든 사람에게 놀랍도록 새로운 능력을 제공할 수 있다”고 말하고 있다. AGI를 통해 인간은 모든 인지 작업에 도움을 받을 수 있으며 독창성과 창의력에 큰 힘을 불어넣을 수 있다는 것이다.
하지만 과연 그것이 전부일까?
AGI가 ‘만들 수도’ 있는 암울한 미래를 막으려면?
AI의 진화가 초래할 미래 예측은 장밋빛만 가득한 것은 아니다. 실제 챗GPT가 등장하기 훨씬 이전부터 AI가 불러올 디스토피아적인 미래상을 우려하는 목소리가 적지 않았다. 샘 올트먼 CEO 역시 이 점에 대해 “AGI는 오용, 심각한 사고, 사회적 혼란을 초래할 수 있는 위험도 수반하고 있다”고 순순히 털어 놓는다. 다만 그는 “그렇다고 해서 AGI의 막대한 긍정적인 측면을 외면하고 개발을 중단하는 것은 가능하지도 않고 바람직하지도 않다”며 “잘못된 사용을 막기 위해 사회와 AGI 개발자들이 올바른 방법을 찾아야 한다”고 덧붙였다.
그렇다면 AGI 탄생 과정에서 일어날 문제들을 예방하기 위해 그가 이야기하는 ‘지금 해야 할 중요할 일들’은 무엇일까?
첫 번째는 AGI 시스템을 지속적으로 개발하는 과정에서 점진적으로 이를 배포하고 실제 환경에서 운영 경험을 쌓아야 한다는 것이다. 이를 통해 그는 “갑작스러운 전환에 의한 충격을 완화하는 효과와 함께 사람, 정책 입안자, 기관이 현재 상황을 이해하고 시스템의 장·단점을 경험하며 적응을 통해 규제를 마련할 수 있는 시간을 벌 수 있다”고 설명한다.
그는 점진적인 도입의 효과로 “AI가 사회와 함께 점진적인 진화를 거치게 해 부작용은 최소화하면서, 사람들이 원하는 바를 상대적으로 적은 비용으로 파악할 수 있다”고 언급한다.
이어 그는 “빠른 학습과 신중한 반복을 통해 긴밀한 피드백 루프를 구축하는 것이 AI 배포 과제를 성공적으로 해결하는 가장 좋은 방법”이라며 “이를 통해 사회는 AI 시스템의 허용 범위, 편견에 대처하는 방법, 일자리 대체에 대처하는 방법 등에 대한 주요 질문에 직면하게 될 것이고, 최적의 결정은 기술이 나아가는 길에 따라 달라질 것”이라고 전망했다.
그러면서도 그는 “그러한 방식은 사회가 일반적으로 신기술에 적용하는 것보다 훨씬 더 많은 주의가 필요하다”며 “AGI(및 후속 시스템)의 위험성이 실재하는 것처럼 여기고 주의를 기울려 운영할 것”이라는 말로 신중함을 드러냈다.
GPT-3의 챗GPT 전환, 조정 가능한 모델의 시작
샘 올트먼 CEO가 이야기하는 점진적인 진화는 ‘조정 가능한 모델’을 만드는 것으로부터 시작됐다. 그 초기 사례가 GPT-3를 챗GPT로 전환한 현재의 시도다. 그는 “향후 등장할 AGI 제품의 기본 설정은 ‘상당히 제한적’일 가능성이 높다”면서도 “사용자가 사용 중인 AI의 동작을 쉽게 변경할 수 있는 수준의 재량권은 부여할 계획”이라고 언급했다.
또 이러한 실험들이 진행되는 동안 세계 각국의 기관들은 AGI의 복잡한 결정에 대비하기 위한 추가적인 역량과 경험을 강화할 필요가 있다는 것이 그의 생각이다.
이어 그는 ‘AI의 안전과 기능이 함께 발전하는 것’의 중요성에 대해 언급하며 “이 두 가지를 따로 떼어놓고 이야기하는 것은 잘못된 이분법이며, 최고의 안전은 가장 유능한 모델과 함께 작업할 때 이루어진다”고 강조했다.
그 과정에서 그는 ‘이러한 시스템을 어떻게 운영할 것인지’ ‘시스템에서 창출되는 혜택을 어떻게 공정하게 분배할 것인지’ ‘접근 권한을 어떻게 공정하게 공유할 것인지’ 등 세 가지 핵심 질문에 대한 전 세계적인 논의가 이루어져야 한다는 바람을 드러내기도 했다.
또한 그는 글의 말미에 “잘못 조정된 초지능 AGI는 전세계에 심각한 해를 끼칠 수 있으며, 독재정권이 이를 악용할 수도 있다”고 경계하며 “AGI 기술의 진전에 대한 정보는 대중과 공유할 것”이라는 각오를 내비치기도 했다.
샘 올트먼 CEO의 글을 종합하면 챗GPT는 AIG로 진화하는 과정일 뿐이며 이는 점진적으로 진행될 것이라는 점, 하지만 그로 인한 최종적인 변화는 예측의 범위를 넘어설 것이라는 점이다.
또한 그는 “이러한 진화에 ‘무한한 단점과 장점이 존재하며 그러한 위험성이 우리를 단결하게 할 것”이라고도 언급했다.
다시 말해 그는 챗GPT 이후 등장할 AGI를 잘 관리하기만 한다면 “미래는 상상할 수 없을 정도의 번영”으로 이어질 수 있을 것이라고 예측하는 것이다. 그래서일까? “인류의 미래는 인류가 결정해야 한다”는 그의 말이 더욱 무겁게 느껴질 따름이다.
소셜댓글