지난해 11월 챗GPT 발표로 촉발된 전세계적 인공지능(AI) 열풍은 그야말로 뜨겁다. 하지만 한발 물러나 과연 이 AI열풍이 어떤 양상으로 전개되고 있는지 찬찬히 살펴 보는 것도 필요해 보인다. 마침 미국 스탠포드대의 인간중심 인공지능 연구소(HAI)가 지난 6년 동안 매년 해 왔던 것처럼 지금까지의 AI 세계에 대한 포괄적 그림을 제공하는 1년 분량의 최신 AI 데이터를 수집해 제시했다. 올해엔 지난해보다 60% 가량 늘어난 302쪽 짜리 ‘2023년 인공지능 지수 보고서’(AI Index Report 2023)라는 이름의 포괄적 보고서를 내놓았다. 지난해에 비해 주의를 요구하는 생성 AI 붐과 AI 및 윤리에 대한 데이터 수집 노력이 증가한 때문이다. 이 연구 결과는 오늘날 AI의 필수적인 동향을 포착하는 10개 트렌드로 요약해 볼 수 있다. 여기에는 지난해 AI가 획기적으로 발전 한 점, AI 훈련 비용이 결코 싸지 않다는 점, 엄청난 전기를 사용함으로 이산화탄소를 발생시키는 점, AI 박사들이 점점 더 기업으로 많이 진출하는 점이 꼽혔다. 이와함께 각국의 가빠진 AI 법률정비 움직임, AI 오남용 우려, 활용과 재앙에 대한 식지 않는 논란 등도 꼽혔다. 이를 소개한다.
대형 언어 모델은 저렴하지 않다
최근 각 AI 기업들이 요금 부과 서비스를 시작하면서 부각된 부분이기도 하다. 보고서는 챗GPT과 같은 대형 언어 모델(LLM)의 힘이 극적으로 증가한 반면, 그러한 모델을 훈련시키는 비용 또한 극적으로 증가했다는 점을 지적한다. 특히 모든 기계 학습(ML) 시스템 중에서 언어 모델은 대부분의 컴퓨팅 리소스를 흡수하고 있다는 점을 빼놓지 않았다.
탄소 비용도 높다
AI 시스템의 탄소 배출량을 추정하는 것은 쉽지 않지만, AI 인덱스 팀은 모델의 매개 변수 수, 데이터 센터의 에너지 효율, 전기를 공급하는 데 사용되는 발전 유형을 고려해 최선을 다했다. 연구팀은 4개의 모델 중 가장 효율적인 모델인 BLOOM을 대상으로 훈련을 할 경우에도 미국민이 1년 동안 사용하는 평균보다 더 많은 탄소를 배출한다는 결론을 내렸다.
정부가 나설 차례다
지난해 민간 AI 투자는 10년 만에 처음으로 감소했다. 2021년 대비 3분의 1 가량 감소한 1896억 달러(약 250조 원)를 기록했다. 그 이유는 분명하지 않다. 레일 페럴 AI 인덱스 운영 위원회 공동 책임자는 “우리는 지난해 스타트업에 대한 민간 투자가 전반적으로 감소했다는 것을 알고 있다. 우리는 AI 스타트업 투자가 나머지보다 더 줄어들었는지에 대한 질문에 대한 답에 이르지 못했다”고 말했다.
이 보고서에 따르면 AI 연구의 긍정적인 측면은 적어도 미국에서는 정부 지출이 증가하고 있다는 것이다. AI 인덱스 보고서는 미국의 비 국방분야 정부 기관들이 2022년 AI 연구개발(R&D)비용은 전년 대비 13.1% 증가한 17억 달러(약 2조2400억 원)를 배정했다고 밝히고 있다. 그리고 미 국방부는 2023 회계연도에 미 기밀성 AI 특화 연구를 위해 2022년도 조달 자금 대비 26.4% 증가한 11억 달러(약 1조4500억 원)를 요청했다. 페럴은 이 숫자들은 얻기 어려웠다고 말했다. 스탠포드 AI 인덱스 팀은 여러 가지 다른 측정 접근 방식을 취했고, 대략 비슷한 수치를 도출했지만 전 세계에서 비교 가능한 데이터를 수집할 수 없었다고 밝혔다.
페럴은 이러한 연구자금 증가에 몇 가지 잠재적 원인이 있다고 지적했다.
그는 “2021년 보고서를 낸 국가안전보장위원회(NSC)는 AI를 보면서 AI연구에 타당한 자금 10억달러(약 1조3000억 원) 증액, 그리고 추가로 고성능 컴퓨팅(HPC, 즉 슈퍼컴) 자금 10억달러를 권고했다”고 밝혔다. 그는 “그것이 어떤 효과가 보인 것 같다. 그리고 예전에는 AI가 고등국방연구기획국(DARPA), 국가과학재단(NSF) 및 국방부 일부 그룹과 같은 소수의 기관에서 자금을 지원받고 있었지만, 이제는 AI가 생물학과 같은 더 넓은 관심 범위의 문제와도 관련이 있는 것으로 간주된다는 점에서 AI가 자금 지원이 이루어지는 영역을 확산시키고 있다고 생각한다”고 말했다.
학계가 아닌 산업계가 새로운 AI 박사를 이끌어내고 있다
AI 인덱스 보고서에 따르면 2021년(가능한 범위내의 최신 수치) 전체 AI 박사의 65.4%가 산업계로 갔다. 이는 학계에 취업한 28.2%와 크게 비교된다. 여타 사람들은 자영업자, 실업자 또는 ‘기타’라고 신고했다. 이러한 분할비율은 비율이 거의 동일했던 2011년 이후 꾸준히 증가해 왔다.
산업계는 새로운 기계 학습 모델을 위한 장소가 되고 있다
박사 학위자의 수가 많아짐에 따라, 산업계가 새로운 기계 학습 모델을 만들어내는데 있어 학계를 앞지르며 달려온 것은 놀라운 일이 아니다. 2014년까지 대부분의 새로운 기계 학습 모델은 학계에서 나왔지만 산업은 빠르게 앞서 나갔다. HAI가 수집한 데이터에 따르면 2022년 에 산업계에서 생산된 머신러닝 모델은 32개인데 반해 학계에서 생산된 것은 3개에 불과했다. AI 인덱스 보고서는 업계가 최첨단 AI 시스템 구축에 필요한 대용량 데이터, 컴퓨터 성능 및 비용에 대한 접근성 측면에서도 이점이 있다고 지적한다.
패럴은 이런 추세를 감안할 때 “가장 큰 의문중 하나는 대학들이 외부 AI 모델을 만지작거리기보다는 자체적으로 대형 모델을 구축할 수 있는 자원을 어느 정도까지 제공받을 것인지다”라고 말했다.
AI 기술 혁신의 멋진 한 해
AI 인덱스 운영 위원회는 2022년 동안 AI에서 가장 중요한 기술 발전을 시간 순으로 선정했다.
지난해 나온 낯익은 굵직한 발표 및 활용 사례들만 보더라도 ▲2월2일=딥마인드, 알파코드 발표 ▲2월15일=딥마인드, 토카막에서 핵융합 플라즈마 제어 위한 강화학습 에이전트 훈련 ▲3월24일=메타 Ai, 메이크어신 발표 ▲4월5일=구글, 팜(PaLM) 발표 ▲4월13일=오픈AI, 달리2 발표 ▲5월12일=딥마인드, 가토 출시 ▲5월23일=구글,이매젠(Imagen) 발표 ▲6월21일=깃허브, 개발자들에게 코파일럿 제공 ▲7월8일=엔비디아, 더나은 GPU개발 위해 강화학습 사용 ▲7월11일=메타, NLLB 발표 ▲8월4일=칭화대 연구원들, GLM-130B LLM 발표 ▲8월22일=스터빌리티 AI, 스테이블 디퓨전 발표 ▲9월21일=오픈AI, 발화인식시스템 위스퍼 발표 ▲9월29일=메타, 메이크어비디오 발표 ▲10월5일=딥마인드, 알파텐서 출시 ▲11월9일=국제 연구그룹, BLOOM 발표 ▲11월16일=스탠포드대 연구원들 HELM 발표 ▲11월30일=오픈AI, 챗GPT 출시 등이 있다.
페럴은 “이 ‘이 달의 모델’은 다른 사람들이 발표한 연구에만 의존하지 않고 자체적으로 이뤄진 내부 수행 데이터 수집을 늘리고 있는 팀에게는 새로운 것이었다”고 말한다. 그는 “우리가 해결해야 할 다른 것들에 대한 많은 아이디어가 있지만 독창적 일을 할 수 있는 유연성은 자금 지원에 의해 제한된다”고 덧붙였다.
사용하면서 남용하게 된다
AI 인덱스는 공개 데이터베이스인 ‘AI, 알고리즘 및 자동화 사고 및 논쟁’(AIAIC) 저장소의 데이터를 사용, “AI의 오용과 관련된 사건 수가 급증하고 있다”고 보고했다.
이 데이터는 약 1년 정도 된 것이어서 검증할 수도 있는데 여기에는 2022년 초 볼로디미르 젤렌스키 우크라이나 대통령이 항복했다는 딥페이크 사건, 그리고 사생활과 차별 우려를 제기하게 만든 “인텔이 ‘줌’을 통한 학생 감정 모니터링 시스템을 개발했다”는 가짜 뉴스가 포함돼 있다.
법이 따라잡기 시작했다
스탠포드대 HAI는 127개국에서 AI 관련 법을 통과시키는 등 관련법이 급증했다고 밝혔다. 실제로 2016년 단 한 건에 불과했던 AI 관련법은 지난해에만 37건이 통과됐다고 보고했다. 여기에는 AI를 개발하는 영리기업을 포함해 국가안보에 중요한 조직에 대한 제한을 허용하는 라트비아 국가보안법 개정안, 공공행정에 사용되는 AI 알고리즘에 편향을 최소화하는 기준을 고려토록 한 스페인 법률 등이 포함됐다.
일반적으로 중국인들은 AI의 팬이지만 미국, 프랑스, 캐나다, 네덜란드 등에서는 그렇게 많지 않다
글로벌 리서치 업체 IPSOS의 조사에 따르면 중국 응답자의 78%는 AI를 활용한 제품과 서비스가 단점보다 장점이 더 많다는 데 동의했다. 미국에서는 35%만이 AI로 순수하게 혜택을 볼 것이라고 봤으며, 프랑스인에게 이 수치는 31%에 불과해 최하위였다. 이 보고서는 일반적으로 남성이 여성보다 AI에 대해 더 긍정적인 태도를 가지고 있다고 쓰고 있다.
연구자의 3분의 1만이 AI가 재앙을 일으킬 것으로 생각한다
HAI는 “미국의 한 연구진들이 AI 전문가들이 AI 연구에 대해 어떻게 생각하는지 파악하기 위해 출판물을 통해 입증된 자연어 처리 연구자들을 조사했다”고 보고서에서 밝혔다.
이에 따르면 조사대상 연구자들의 거의 90%가 AI의 과거와 미래의 순기능적 영향이 좋다고 말했지만, 그들은 AI의 힘이나 위험도 무시하지 않고 있다. 대다수(73%)는 AI가 곧 혁명적 사회 변화로 이어질 것으로 예상했으며, 적지 않은 수(36%)는 AI가 핵 수준의 재앙을 초래할 수 있다고 생각하는 것으로 나타났다.
페럴은 “이들 대부분 그들이 무슨 말을 하는지 아는 사람들이라는 점을 감안할 때 그것은 꽤 흥미로운 조사 결과였다. 이 수치들은 약 1년 전의 것이다. 대형 언어모델에서 일어난 일 (챗GPT 발표 및 확산)을 감안할 때 지금 그것들을 보는 것은 흥미로울 것이다. 이는 지켜봐야 할 일이다”라고 말했다.
소셜댓글