Microsoft and OpenAI today released a joint report warning that cybercriminals are leveraging AI tools and large language models (LLMs) to enhance their attack capabilities. The report found that countries such as Russia, North Korea, China, and Iran have used LLMs such as OpenAI's ChatGPT to identify targets and improve their cyberattacks. "We've seen attackers use AI as another productivity tool, which underscores the seriousness of LLM technology exploitation," Microsoft said. LLMs are AI models that can perform a variety of tasks, including human-level text generation, language translation, and code writing. Cybercriminals appear to have exploited these LLMs to carry out phishing attacks, develop malicious code, gather intelligence, identify targets, and more. Finally, Microsoft and OpenAI warn of the dangers of LLM abuse, stating that "continued research and collaboration is needed to ensure the safe development and use of AI technologies."
마이크로소프트와 OpenAI는 15일(현지시간) 공동 보고서를 발표하며, 사이버 범죄자들이 AI 도구와 LLM(대형 언어 모델)을 활용해 공격 능력을 강화하고 있다고 경고했다. 보고서에 따르면 러시아, 북한, 중국, 이란 등 국가들이 OpenAI의 ChatGPT와 같은 LLM을 이용하여 공격 대상을 파악하고 사이버 공격을 개선하는 시도를 한 것으로 나타났다. 마이크로소프트는 "공격자들이 공격 수단으로 AI를 또 다른 생산성 도구처럼 사용하는 행위가 확인되었으며, 이는 LLM 기술 악용의 심각성을 보여준다"고 강조했다. LLM은 인간 수준의 텍스트 생성, 언어 번역, 코드 작성 등 다양한 작업을 수행할 수 있는 AI 모델이다. 사이버 범죄자들은 이러한 LLM 기술을 악용하여 피싱 공격, 악성 코드 개발, 정보 수집, 공격 대상 파악 등 다양한 방법으로 LLM의 선기능을 악용한 것으로 보이다. 끝으로, 마이크로소프트와 OpenAI는 "AI 기술의 안전한 개발과 활용을 위해 지속적인 연구와 협력이 필요하다"라며, LLM 악용의 위험성을 경고하고 나섰다.