최근 미국 오픈AI의 인공지능(AI) 챗봇인 챗GPT 열풍이 전세계를 강타하고 있다. 열풍은 사용자들에 그치지는 않을 것 같다. 수요가 있으면 공급자가 몰리는 법. 이와 유사한 AI모델이 줄지어 대기하고 있다. 이미 일부 스타트업들은 유사 챗GPT 설계 레이스에 돌입해 몇 달 후면 출시할 수 있을 것이라고 공언하고 있다. AI기반 챗봇 레이스를 새로운 생태계 전반을 짚어본 와이어드 최근 분석 내용을 요약해 소개한다.
챗GPT 기술은 독특하지도 비밀도 아니다
현재 세계적으로 가장 유명한 인공지능(AI) 챗봇인 오픈AI의 챗GPT 기술은 잠재적으로 가장 가치 있는 알고리듬일 수 있다.
하지만 이 회사의 스마트한 기능을 제공하는 AI 기술은 이 회사만의 독특한 기술도 아니고 비밀도 아니다. 따라서 곧 경쟁 스타트업들이 누구나 복사하고 재사용할 수 있는 독자 프로젝트와 오픈 소스 기반으로 챗GPT 스타일 복제품을 쏟아낼 것이다.
일례로 이미 첨단 이미지 생성 기술을 개발해 오픈 소스화한 기업 스터빌리티 AI가 챗GPT의 공개 경쟁작을 내놓기 위한 작업에 나섰다.
실제로 에마드 모스테크 스터빌리티AI 최고경영자(CEO)는 “우리는 출시를 몇 달 앞두고 있다”고 말했다. 이 회사 외에도 앤트로픽(Anthropic), 코히어(Cohere), AI 21 등 다수의 유력 스타트업이 오픈AI와 유사한 고유의 챗봇을 개발하고 있다.
AI챗봇 홍수는 돈버는 AI 러시로 이어진다
임박한 정교한 AI챗봇의 홍수는 AI 비즈니스, 개발자 및 연구자가 더 쉽게 접근할 수 있을 뿐만 아니라 소비자들에게 기술을 더 풍부하고 가시적으로 만들어 줄 것이다. 이 AI는 또 한편 AI기업들, 개발자, 연구원들에게 AI를 더 접근하기 쉽게 만들 수 있다.
그리고 결국 이미지, 코드 및 텍스트를 생성하는 AI 도구로 돈을 벌기 위한 돌진을 가속화할 수 있다.
이미 마이크로소프트(MS)와 슬랙같은 기존 기업들은 챗GPT를 자사 제품에 통합하고 있으며, 많은 스타트업들이 개발자들을 위해 새로운 챗GPT API를 구축하기 위해 분주히 움직이고 있다.
쏟아질 AI챗봇, 과연 안전할까
그러나 더 광범위한 기술 가용성은 기술에 수반되는 위험을 예측하고 완화하려는 노력을 복잡하게 만들 수도 있다.
챗GPT의 매력, 즉 광범위한 질문에 설득력 있게 답하는 능력은 때때로 사실을 지어내거나 문제있는 캐릭터를 채택하게 만든다. 게다가 이 AI챗봇은 악성 프로그램 코드 생성이나 스팸 및 허위 정보 캠페인과 같은 악의적인 작업을 지원할 수도 있다.
결과적으로 일부 연구자들은 위험을 평가하는 동안 챗GPT과 유사한 시스템의 배치를 늦추어야 한다고 주장한다.
AI에 의해 만들어진 허위 정보 등의 위험에 대한 관심을 끌기 위해 노력해 온 AI 전문가 게리 마커스는 “연구를 중단할 필요까지는 없지만 우리는 확실히 광범위한 AI챗봇 배치를 규제할 수 있다”며 “예를 들어 우리는 이러한 기술을 1억 명의 사람들에게 공개하기 전에 10만 명의 사람들에 대한 연구를 요청할 수 있다”고 말한다.
챗GPT 스타일 시스템의 가용성이 높아지고 후속 오픈 소스 버전들이 출시되면 연구를 제한하거나 배포 범위를 넓히기가 더욱 어려워진다. 그런데 챗GPT를 채택하거나 이 트렌드에 맞추기 위한 대기업과 중소기업 간 경쟁은 속도를 늦추기는커녕 오히려 이 기술의 확산을 장려하는 것으로 보인다.
지난주 메타가 개발한 챗GPT 핵심 모델과 유사한 AI 모델인 ‘LLaMA((Large Language Model Meta AI)’가 일부 학계 연구원들과 공유된 후 온라인에 유출됐다. 이 시스템은 챗봇을 만드는 기본 구성 요소(빌딩 블록)로 사용될 수 있다. 일각에서는 이 AI모델의 유출이 대형 언어 모델로 알려진 AI 시스템과 그 위에 구축된 챗GPT같은 챗봇이 잘못된 정보를 생성하거나 사이버 보안 침해를 자동화하는 데 사용될 것을 두려워한다.
일부 전문가들은 그러한 위험이 과장된 것일 수 있다고 주장하고, 다른 전문가들은 기술을 더 투명하게 만드는 것이 실제로 다른 사람들이 오용을 방지하는 데 도움이 될 것이라고 반박한다.
애슐리 가브리엘 메타 대변인은 유출에 대한 질문을 회피하면서도 “이 모델은 모든 사람이 접근할 수 없으며, 일부는 승인 과정을 피하려 했지만 우리는 현재 출시 전략으로 책임과 개방성의 균형을 맞출 수 있다고 믿는다”고 말했다.
이미 스타트업들은 유사 챗GPT 출시 레이스 돌입
챗GPT는 몇 년 동안 이용 가능했던 텍스트 생성 기술을 기반으로 구축됐으며 대부분 웹에서 긁어 온 엄청난 양의 텍스트 패턴을 파악함으로써 인간의 텍스트를 미러링하는 방법을 배우고 있다.
오픈AI는 채팅 인터페이스를 추가하고, 여기에 사람의 챗봇 반응 피드백 제공을 포함시킨 기계학습 계층을 제공함으로써 이 기술을 더 유능하고 명료하게 만들 수 있다는 것을 발견했다.
챗GPT와 상호 작용하는 사용자가 제공하는 데이터, 또는 MS의 새로운 빙 같은 검색 인터페이스 위에 구축한 서비스는 오픈AI에 핵심 이점을 제공할 수 있다. 스터빌리티 AI는 현재 카퍼 AI(Carper AI)라고 불리는 챗GPT와 유사한 챗봇을 어떻게 훈련시킬지를 조사하는 프로젝트에 자금을 지원하고 있다.
오픈AI 경쟁사들은 오픈AI의 챗GPT를 만든 미세 조정 작업을 따라 하려고 노력하고 있다.
많은 기술 회사를 대상으로 데이터 라벨링 및 기계 학습 교육을 수행하는 스타트업인 스케일 AI의 알렉산더 왕 최고경영자(CEO)는 많은 고객이 오픈AI를 만들 때 했던 것과 같은 미세 조정 수행 작업에 도움을 달라는 엄청난 요청을 받고 있다고 말한다. 그는 이미 진행 중인 노력이 자연스럽게 더 많은 능력 있는 언어 모델과 챗봇 등장으로 이어지면서 활기찬 생태계가 이뤄질 것으로 생각한다고 말한다.
스터빌리티 AI의 고문이자 미 정부를 포함한 정보분석가들에게 AI 도구를 판매하는 스타트업 프라이머의 션 굴리 CEO도 조만간 많은 프로젝트가 챗GPT와 같은 시스템을 만들어 내놓을 것으로 기대하고 있다.
그는 오픈AI사의 챗봇을 연마시킨 인간 피드백 과정에 대해 “일상적인 말로 이것은 약 2만 시간의 훈련을 필요로 했다는 것이다”라고 말했다. 하지만 그는 여기에는 자금이 풍부한 스타트업이나 대규모 기술 회사가 감당할 수 있는 비용인)수백만 달러가 들 것이라고 예상한다. 다만 그는 오픈AI가 챗GPT를 만드는 미세 조정 작업을 복제못할 것도 없다고 말했다.
챗GPT 후속작도 달리2의 경우처럼?
오픈AI가 지난해 4월 텍스트 프롬프트(원하는 그림에 대한 제시어)로 복잡하고 미적인 AI 기반 이미지 생성 도구인 ‘달리2’를 발표한 이후 일어난 일은 챗GPT와 같은 봇의 앞날을 예고한 것일 수도 있다.
오픈AI는 사용자가 노골적으로 성적이거나 폭력적 이미지, 그리고 알아볼 수 있는 얼굴그림을 만드는 것을 막기 위해 이미지 생성기에 안전 장치를 구현했고, 이 도구가 남용되는 것을 막기 위해 제한된 수의 예술가와 연구자만 이 도구를 사용할 수 있도록 했다.
그리고 AI 연구자들 사이에서 잘 알려진 달리2의 배경 기술을 바탕으로 유사한 AI 예술 도구가 곧 등장했다. 경쟁사인 스터빌리티 AI가 달리2 출시 4개월 만에 오픈AI의 보호적 이미지 생성 방식에도 적응한 오픈소스 이미지 생성기인 ‘스테이블 디퓨전’을 출시한 것이다.
스터빌리티 AI가 개발한 일부를 포함해 오픈소스 AI 프로젝트를 진행하는 회사인 허긴페이스의 델랑구 CEO는 챗GPT 복제가 가능할 것이라고 믿는다. 그는 그 시점에 대해서는 “아무도 모르고, 우리는 여전히 학습 단계에 있다. 좋은 모델이 나오기 전에는 좋은 모델이 있다는 것을 결코 알지 못한다. 다음 주가 될 수도 있고, 내년이 될 수도 있다”고 말한다. 하지만 둘다 그리 멀지 않아 보인다.
소셜댓글