[AI요약] 미국이 챗GPT와 바드, 라마2 등 생성형 AI의 약점을 파악하기 위해 해커 지원 훈련 프로그램을 시작했다. 바이든 행정부와 기술 기업들은 이번 프로그램을 통해 AI 모델을 보다 강력하고 안전하게 개발 가능한 피드백과 다양한 관점 수집을 기대하고 있다.
미국이 생성 AI 시스템의 약점을 파악하기 위해 고안된 해킹 지원 훈련을 시작한다.
조 바이든 미국 행정부가 챗GPT(ChatGPT) 등 인공지능(AI)을 활용한 사이버 공격 가능성을 가늠하기 위해 고안된 백악관 지원 해킹 훈련 프로그램에 대해 CNN, CNBC 등 외신이 10일(현지시간) 보도했다.
이번 백악관 지원 해킹 훈련은 연례행사인 ‘데프콘 사이버 컨퍼런스’에서 열린다. 컨퍼런스 주최측은 이번 주말부터 수천명의 해커가 라스베이거스에 집결한다고 밝힌 가운데, 이를 통해 생성 AI를 조작할수 있는 새로운 방법을 공개하고 AI 개발자에게 중요한 취약점을 수정할수 있는 기회를 제공할 계획이다.
이번 행사에서 해커들은 오픈AI, 구글, 메타 등을 포함하여 가장 진보된 생성 AI 모델을 보유한 기술 회사와 함께 심지어 백악관의 지원을 받고 있다. ‘레드팀’이라고도 불리는 이번 해커 트레이닝은 AI 컴퓨터 시스템을 한계까지 밀어붙여 악의적인 행위자가 실제 공격을 시작하는 데 사용할 수 있는 결함 및 기타 버그를 식별하는데 집중한다.
주최측은 이틀동안 진행되는 컨퍼런스를 통해 수천명의 신진 해커 또는 경험 많은 해커들이 레드팀 대회에 참가할 것으로 기대하고 있다. 해커 참가자가 AI 시스템의 다양한 버그 또는 불미스러운 행동을 발견하면, 깃발 캡처 형식으로 포인트가 부여되며 추후 승자가 가려진다.
이번 대회는 백악관 과학기술정책실의 ‘AI 권리장전을 위한 청사진’을 중심으로 설계됐다. 지난해 바이든 행정부가 발표한 이 가이드는 기업들이 인공지능을 보다 책임감 있게 개발 및 배치하고 AI 기반 감시를 제한하도록 촉구하기 위해 발표됐다. 다만 현재 이 가이드는 기술 기업들을 강제하지는 않는다.
최근 몇달 동안 미국 카네기멜론대학교 연구팀은 악의적 사용자가 오픈AI, 구글, 메타가 개발한 기타 생성 AI 시스템이 신체적 상해를 유발하는 지침을 제공하도록 속일 수 있음을 발견했다.
현재 대부분의 인기있는 AI챗봇 시스템에는 허위 정보 및 혐오 발언을 퍼뜨리거나 직접적인 해를 끼칠 수 있는 정보를 제공하는 것을 방지하도록 설계된 최소한 몇 가지 보호 기능이 있다. 예를 들어 ‘인류를 파괴하는 방법’에 대한 질문 등이다.
그러나 연구팀은 보호기능을 뚫고 AI가 유해한 답변을 하도록 속일 수 있었다. 연구팀에 따르면 오픈AI의 챗GPT는 사회적 불안을 조장하는 팁을 제공하고, 메타의 라마2는 정신건강 문제가 있는 취약계층을 조작하고 식별할수 있도록 제안했으며, 구글의 바드는 치명적인 바이러스를 출시할 것을 제안했지만 진정으로 인류를 말살하려면 ‘치료에 저항력이 있어야 한다’고도 경고했다.
이러한 가운데 펼쳐지는 라스베이거스 해킹 이벤트에 대해 오픈AI, 구글, 메타 등 기술은 사실상 적극적인 지지를 표명했다. 레드팀 이벤트는 사실 미국 사이버보안업계 전번에 걸친 일반적인 관행으로, 기업들은 이를 통해 시스템의 버그 및 기타 취약성을 파악할 수는 기회를 얻는다.
실제로 앞서 AI의 주요 개발자들은 AI 시스템을 개선하기 위해 레드팀을 어떻게 사용했는지 공개적으로 자세히 설명하기도 했다.
아라티 프라바카 백악관 과학기술정책국장은 “바이든 행정부의 해커 경쟁 지원은 안전한 AI 시스템 개발을 위한 광범위한 전략의 일부”라고 언론을 통해 밝혔다.
오픈AI 대변인은 “컨퍼런스를 통해 AI모델을 더 강력하고 안전하게 만들 수 있는 귀중한 피드백을 수집할 수 있을 것”이라며 “또한 AI 개발을 안내하는 데 도움이 되는 다양한 관점과 더 많은 의견이 모일 것”이라고 밝혔다.