The Washington Post's analysis of about 200,000 conversations from the WildChat dataset revealed how AI chatbots are being used. 21% of users sought help with creative writing, 18% requested homework assistance, and 15% asked for work-related support. 7% sought coding help, while another 7% attempted to elicit sexual content. 5% asked for personal advice, and 6% requested help with AI image generation prompts. 13% of conversations included the word "please". Researchers note that while chatbots are effective for brainstorming, they warn of risks such as personal information leakage and misinformation. Usage patterns varied widely, with most users engaging with the chatbot only once, while some used it almost daily.
워싱턴포스트가 WildChat 데이터셋의 약 20만 건의 대화를 분석한 결과, AI 챗봇의 실제 사용 양상이 드러났다. 사용자의 21%는 창의적인 글쓰기 도움을 요청했고, 18%는 숙제 지원을, 17%는 검색, 15%는 업무 관련 지원을 요청했다. 7%는 코딩 도움을 받았으며, 또 다른 7%는 성적인 내용을 요구했다. 5%는 개인적 조언을 구했고, 6%는 AI 이미지 생성 프롬프트 작성에 도움을 요청했다. 13%의 대화에서 사용자들은 "please"를 사용했다. 연구자들은 챗봇이 브레인스토밍에 효과적이지만, 개인정보 유출이나 잘못된 정보 제공 등의 위험이 있다고 경고한다. 대부분의 사용자가 챗봇을 한 번만 사용한 반면, 일부 사용자는 거의 매일 사용하는 등 사용 패턴에 큰 차이가 있었다.