OpenAI is set to make its text-to-video generator, Sora, publicly available later this year, with the tool already showcasing hyperrealistic scene generation from text prompts since its introduction in February. Initially offered to visual artists, designers, and filmmakers, Sora's capabilities and potential expansions, including audio incorporation for more realistic scenes and user-editing features, are being explored. While OpenAI CTO Mira Murati remained vague on the specifics of Sora's training data, she confirmed a partnership with Shutterstock for content use. Despite the tool being more expensive to operate than OpenAI's AI text-to-image model DALL-E, efforts are being made to offer it at comparable costs. As the 2024 presidential election approaches, concerns about generative AI's role in misinformation are growing, prompting policies against creating images of public figures and the inclusion of watermarks on videos.
오픈AI의 기술책임자 미라 무라타는 최근 인터뷰에서 소라(Sora)가 "올해, 몇 달 내로" 공개될 것이라고 밝혔다. 소라는 오픈AI의 텍스트 기반 비디오 생성도구로 텍스트 프롬프트로부터 초현실적인 장면을 만들어내는 능력을 가지고 있으며, 그 시작부터 시각 예술가, 디자이너, 그리고 영화 제작자들을 위해 제공되었다. 무라티에 따르면, 오픈AI는 소라에 오디오 기능을 추가하여 장면을 더 현실적으로 만들고, 사용자들이 생성된 비디오의 내용을 직접 편집하고 만들 수 있도록 하는 계획을 가지고 있다. 그러나 무라티는 소라의 학습데이터에 대한 구체적인 세부사항은 공개하지 않았지만, 셔터스톡과의 파트너십을 통해 콘텐츠를 사용한다고 밝혔다. 또한 소라의 운영비용이 DALL-E보다 '훨씬 더 많이 들지만', 오픈AI는 소라를 대중에게 공개할 때 DALL-E와 비슷한 비용으로 제공하기 위해 노력하고 있다고 무라티는 설명했다.