An unexpected side effect of AI chatbot development has been discovered. A research team from the Polytechnic University of Valencia in Spain has revealed that as AI models advance, their accuracy improves, but simultaneously, the likelihood of providing incorrect answers to questions beyond their capabilities increases. The research team tested various AI models, including OpenAI's GPT series, Meta's LLaMA, and the open-source BLOOM, with questions on diverse topics. As a result, they found that as models became more advanced, the rate of providing incorrect answers instead of saying "I don't know" increased. Even more concerning is that users often misidentify these incorrect answers as accurate. According to the study, developers participating in the test mistakenly judged 10-40% of AI's inaccurate responses as correct. In conclusion, it is essential to verify the accuracy of responses when using AI chatbots, and we must be cautious that indiscriminate trust can lead to the spread of misinformation.
AI 챗봇 발전의 예상치 못한 부작용을 발견됐다. 스페인 발렌시아 공과대학의 연구팀은 AI 모델이 발전할수록 정확도가 높아지지만, 동시에 자신의 능력을 벗어나는 질문에도 잘못된 답변을 할 가능성이 증가한다고 밝혔다. 연구팀은 오픈AI의 GPT 시리즈, 메타의 LLaMA, 오픈소스 BLOOM 등 여러 AI 모델을 대상으로 다양한 주제의 질문을 테스트했다. 그 결과, 모델이 발전할수록 "모르겠다"고 답하는 대신 잘못된 답변을 제시하는 비율이 높아졌다. 더욱 우려되는 점은 사용자들이 이러한 잘못된 답변을 정확하다고 오인하는 경우가 많다는 것이다. 연구에 따르면, 테스트에 참가한 개발자들은 AI의 부정확한 답변을 10~40% 정도 정확하다고 잘못 판단했다. 결론적으로, AI 챗봇 사용 시 답변의 정확성을 반드시 확인해야 하며, 무분별한 신뢰는 잘못된 정보 확산으로 이어질 수 있음을 경계해야 한다.