[AI요약] 오픈AI는 자사가 개발한 새로운 챗GPT 인간음성 모드 때문에 사용자가 챗봇에 지나치게 의존하게 될까봐 우려하고 있다. 사용자가 AI와 사회적 관계를 형성해 인간 상호 작용에 대한 필요성을 줄일수 있으며, 이는 건강한 관계에 악영향을 미칠 수 있다는 것이다. 일부 사용자들은 이미 AI 챗봇과 ‘낭만적인 관계’를 형성하고 있으며, 이는 전문가들의 우려를 불러일으키고 있다.
개발사가 먼저 나서 우려하는 새로운 챗GPT 인간음성 모드는 어느 정도일까.
오픈AI가 새로운 ‘챗GPT 인간음성 모드’를 사용하는 사람들의 감정적 의존 우려가 담긴 보고서에 대해 CNN 등 외신이 10일(현지시간) 보도했다.
개발사가 자사의 챗봇을 실제로 우려하고 있다는 사실은 오픈AI가 최근 유료 사용자에게 출시를 시작한 도구의 안전성 검토와 이를 실행하는 대규모 언어 AI 모델에 대한 지난주 보고서를 통해 밝혀졌다.
챗GPT의 고급 음성 모드는 놀라울 정도로 실제 인간과 비슷한 음성을 낸다. 실시간으로 응답하는 것은 물론 방해를 받아도 적응할 수 있으며, 웃음이나 ‘음’과 같이 대화 중에 사람이 낼법한 소리를 낸다. 또한 음성톤을 기준으로 화자의 감정 상태를 판단할 수도 있다.
오픈AI가 올해 초 이벤트에서 해당 기능을 발표한지 몇분 만에 챗봇은 2013년 영화 ‘Her’의 AI 디지털 비서와 비교됐는데, 주인공이 AI인 ‘그녀’와 사랑에 빠지지만 사실 AI가 다른 수백 명의 사용자와도 관계가 있다고 인정하자 깊게 상심하게 내용이 담긴 영화다.
보고서에서 오픈AI는 사용자가 챗GPT의 음성모드와 대화할때 도구와 ‘공유된 유대감을 표현하는’ 언어로 대화하는 것을 관찰했다고 분석했다. 이는 기업이 영화와 같은 허구의 이야기가 현실이 될수도 있다는 우려를 표명한 것으로 보인다.
오픈AI 보고서를 통해 “사용자는 AI와 사회적 관계를 형성해 인간 상호 작용에 대한 필요성을 줄일수 있다”며 “이는 외로운 개인에게는 이롭지만 건강한 관계에는 영향을 미칠 수 있다”고 우려했다.
보고서는 AI가 실수할 가능성이 큼에도 불구하고, 사용자가 인간처럼 들리는 봇으로부터 정보를 얻게될 경우 도구를 필요 이상으로 신뢰할 가능성도 있다고도 덧붙였다.
오픈AI의 보고서는 결국 인공 지능을 둘러싼 ‘큰 그림’의 위험을 강조하고 있다. 빅테크는 우리의 생활, 업무, 사교 및 정보 검색 방식을 뒤집을 수 있다고 말하는 AI 도구를 대중에게 신속하게 출시하기 위해 경쟁하고 있다. 그러나 문제는 그들 중 누구도 그러한 의미가 무엇인지 실제로 이해하기 전에 기술을 먼저 도입하고 있다는 점이다.
많은 기술 발전과 마찬가지로 기업은 도구를 어떻게 사용해야 하는지에 대한 제한된 아이디어를 홍보하지만, 사용자는 의도치 않은 결과를 초래하는 다른 수많은 잠재적 응용 프로그램을 생각해내는 것이 일반적이다.
특히 일부 사용자들은 이미 AI 챗봇과 ‘낭만적인 관계’를 형성하고 있으며, 이는 전문가들의 우려를 불러일으키고 있다.
기술과 인간 소통을 연구하는 리젤 샤라비 애리조나 주립대 교수는 “기업이 윤리적이고 책임감 있는 방식으로 이를 탐색하는데 많은 책임이 있는 가운데, 현재 모두 실험 단계에 있다”며 “장기적으로 존재하지 않을 수 있고 끊임없이 진화하는 기술과 정말 깊은 관계를 형성하는 사람들이 우려된다”고 언론을 통해 비판했다.
실제로 오픈AI는 사용자가 챗GPT의 음성 모드와 상호 작용하는 방식이 시간이 지남에 따라 사회적 상호 작용에서 정상적인 것으로 간주되는 것에 영향을 미칠 수도 있다고도 관측했다.
오픈AI는 “챗봇은 공손하며 사용자가 언제든지 방해하고 끼어들수 있도록 허용하는데, 이는 AI에서는 가능하지만 인간 상호 작용에서는 규범에 어긋난다”며 “현재 AI를 안전하게 구축하는 데 전념하면서 사용자가 해당 도구에 감정적으로 의존할 가능성에 대한 연구를 계속 진행할 계획”이라고 보고서를 통해 밝혔다.
오픈AI는 “초기 테스트에서 사용자가 기술과 연결을 형성하고 있음을 나타낼 수 있는 언어를 사용했다”며 “해당 사례는 무해해 보이지만 이러한 효과가 장기간에 걸쳐 어떻게 나타날지에 대한 지속적인 조사가 필요하다는 신호”라고 강조했다.