"Talking to an AI chatbot can feel a bit like Groundhog Day" - The Verge
미국의 IT 매체인 더버지(The Verge)에서 다룬 어느 기사의 첫 번째 문장입니다. 대충 번역하면, "AI 챗봇과 이야기를 나누는 것은 마치 그라운드호그 데이와 같다." 여기서 말하는 그라운드호그 데이(Groundhog Day)는 '성촉절'입니다. 성촉절에는 마멋(Marmot)이라는 동물이 나오는데 우리나라 경칩이라는 절기처럼 겨울잠에서 깨어나는 날 '2월 2일'을 의미하고 있어요. 그런데 마멋이 잠에서 깬 뒤 햇살에 의해 자기 그림자를 마주하게 되면 다시 잠자리로 들어가는 동면상태에 들어간다면서 겨울 날씨가 또다시 이어진다는 '썰'도 있습니다. 이를테면 꽃샘추위 정도 될까요? 그라운드호그 데이의 또 다른 의미를 찾아보면 '그냥 변함없이 반복되는 일'을 뜻하기도 합니다. 1993년도 빌 머레이 주연의 <사랑의 블랙홀>이라는 영화에서도 주인공이 똑같은 일상을 맞이하게 되는데 이 영화의 원 제목 역시도 '그라운드호그 데이'였습니다. AI 챗봇과 대화하는 것은 '변함없이 반복되는' 일을 뜻한다는데 혹시 공감하시나요?
그라운드호그 데이의 주인공, 마멋(Marmot) 출처 : pbs.org
AI 챗봇과 함께 이야기를 하게 되면 늘 그렇듯 '안녕하세요. 반갑습니다'라고 시작하고 어제 대화를 나눴던 나를 아예 처음 본 사람인 듯 대하게 됩니다. 그러니까 '나'라는 유저를 기억하지 못한다는 의미죠. 그렇게 나는 챗봇을 향해 똑같은 말을 되풀이할 수밖에 없습니다. 세상에 존재하는 대다수의 챗봇이 아마도 그럴 것입니다. 어제 나와 대화를 나누었어도 접속이 끊어지면 대화 내용도, 대화에 참여했던 '나'도 같이 사라지게 되는 셈인 거죠. 챗봇은 나를 기억하지 못합니다. 챗봇이 나를 기억해줬으면 하는 단순한 바람이 아니라 나의 취향이나 성향을 알고 있다면 조금 더 커스터마이징 된 대답을 들을 수 있지 않을까요? 어떤 특정 질문을 던졌을 때 적어도 입력된 쿼리에서 크게 빗나가지 않을 법한, '나'라는 유저에 잘 맞는 specific 한 답을 찾는다는 건 지금의 생성형 인공지능이 꾀하는 이상향일 수도 있겠다는 생각을 해봤습니다. 생성형 인공지능은 그냥 뻔한 결과물을 찾아야 하는 포털 사이트가 아니기 때문이죠. 결국 이러한 이슈와 니즈를 해결하기 위해 어느 AI 기업이 memorizing 가능한 챗봇 기능을 개발 중이라고 했습니다. 네, 맞습니다. 이번에도 그 기업은 오픈 AI였네요.
Open AI 출처 : medriva.com
챗GPT를 사용하는 유저가 특정한 내용을 기억할 수 있도록 챗GPT에 일종의 명령을 내리는 것인데 이를테면 유저의 이름 혹은 별칭이라던가 즐겨 먹는 음식, 즐겨보는 도서 따위를 일부러 저장해 두도록 하는 것이죠. 혹은 챗봇과 상호작용 하면서 세부 정보를 수집하도록 하고 이후 질문을 던졌을 때 그 정보를 인지하여 답을 내놓게 되는 방식 정도가 될 텐데 이렇게 되면 조금 더 스마트한 개인화에 다가서게 될 것 같네요. 다시 정리하면 챗GPT가 구현하려는 방법은 1) 유저가 원하는 정보를 직접 입력하고 저장하는 것 그리고 2) 챗GPT가 유저와 커뮤니케이션하면서 정보를 학습하는 것. 결과적으로 굉장히 편리하게 사용할 수 있을 것 같은데 결국은 개인정보를 가져가게 되는 것 아니냐는 목소리도 있기는 합니다. 그러나 유저가 일부러 저장해서 기억하도록 하는 것과 유저도 모르게 유저의 정보를 가져가 활용하는 건 전혀 다른 문제겠죠. 유저가 원하는 정보 즉 취향이나 성향을 일부러 주입시켜 이후 언제든 유저가 원하는 답을 명쾌하게 얻을 수 있다면 충분히 편리할 것 같은데요? 오픈 AI는 다소 민감할 수 있는 정보라던가 유저가 원치 않는 정보 따위는 기억하지 않도록 필터링하거나 삭제 조치 할 수 있도록 한다고 했습니다. 본인의 계좌정보나 비밀번호, 건강정보 등 진짜 프라이빗한 내용을 기억하도록 한다면 그 자체로 리스크가 커질 수 있으므로 적절하게 부여해야 하지 않을까 싶기도 합니다. 스마트한 세상, 보다 스마트해진 생성형 인공지능을 스마트하게 활용하려면 이를 활용하는 유저 역시 스마트할 필요가 있겠습니다. 보안에 대한 이슈는 스스로도 지킬 수 있어야 하겠습니다.
구글의 제미나이 프로의 경우도 메시지의 콘텍스트를 기억하여 상호작용 하는 멀티턴 기술을 언급하기도 했습니다. AI 프레임워크 랭체인(LangChain)도 대규모 언어 모델이 유저와 AI 모델 사이에 있었던 이전 상호 작용을 기억하는데 도움을 줄 수 있는 메모리 모듈을 개발해 왔습니다. LLM에 특정 기억을 제공하는 건 고유한 LLM을 만드는데 매우 강력한 소스가 될 수도 있다고 말합니다. 해리슨 체이스(Harrison Chase)라고 랭체인의 CEO는 "메모리가 부족하게 되면 짜증 나는 경험을 할 수도 있다"라고 말합니다. 그러니까 상호작용도 중요하지만 이전에 있었던 내용을 기억하지 못한다면 (조금 과하게 예를 들어) '누군가와 밥을 먹을 때마다 나는 당근을 못 먹고 오이 알레르기가 있으며 당뇨가 있어서 현미밥만 먹어야 합니다'라고 매번 말해야 하는 번거로움을 경험해야 한다는 거죠. 챗봇이 기억을 하고 보다 원활한 상호작용을 한다는 것은 유저와 지속적인 관계를 유지하려는 노력일 수 있습니다.
어쨌든 오픈 AI가 꾀하는 것은 챗GPT의 메모리 기능 자체가 불특정 다수의 유저와 제대로 상호 작용 할 수 있으면서 보다 똑똑한 챗봇으로 진화시키는 것에 있습니다. 그렇지 않아도 챗GPT는 꾸준하게 진화하고 있습니다. 오픈 AI도 자신들이 만들어낸 챗GPT를 꾸준하게 다듬어가고 있습니다. 앞으로 또 어떤 변화를 가져올지 궁금해지는군요.
※ 며칠 전 네이버 포스트에 작성했던 글을 옮겨왔습니다. 아래 사이트를 참고했습니다.
- <ChatGPT is getting ‘memory’ to remember who you are and what you like>(2024.2.14), the verge
- <Memory and new controls for ChatGPT>(2024.2.13), openai.com