OpenAI is granting limited access to its Voice Engine platform, which can generate synthetic voices based on 15-second voice clips. The AI-generated voices can read out text prompts in the original speaker's language or various other languages. Companies such as Age of Learning, HeyGen, Dimagi, Livox, and Lifespan are among the initial users of this technology. To mitigate potential misuse, OpenAI has implemented strict usage policies. These policies prohibit impersonating individuals or organizations without consent, require explicit consent from the original speaker, and mandate disclosure when AI-generated voices are used. OpenAI has also implemented watermarking to trace the origin of the audio clips and actively monitor their usage. OpenAI suggests several steps to limit the risks associated with such tools, including phasing out voice-based authentication for bank accounts, enacting laws to protect the use of individuals' voices in AI, increasing education on AI deepfakes, and developing tracking systems for AI-generated content. As AI voice generation technology continues to evolve, OpenAI emphasizes the importance of implementing appropriate safeguards and regulations to ensure its responsible and ethical use.
오픈AI가 15초 길이의 음성 샘플로 합성된 목소리를 생성할 수 있는 보이스 엔진(Voice Engine) 플랫폼을 제한적으로 공개했다. 이 기술은 현재 교육기술기업 Age of Learning, 시각화 스토리텔링 플랫폼 HeyGen, 프론트라인 의료 소프트웨어 제작사 Dimagi 등에서 활용되고 있다. 오픈AI는 음성 생성 기술의 부작용을 최소화하기 위해 여러 정책과 규제를 마련했다. 이용 정책에는 개인 및 기관의 동의 없는 음성 복제 금지, 생성 음성 공개 시 AI 생성 고지 의무화 등이 포함돼 있다. 또한 오픈AI는 음원 추적과 모니터링을 위해 오디오 클립에 웨터마킹을 적용했다. 오픈AI 측은 음성인증 단계적 폐지, 개인정보보호를 위한 법 제정, AI 딥페이크 관련 교육 강화, 생성 콘텐츠 추적 시스템 개발 등의 대책이 필요하다고 강조했다.