The plethora of AI unveiled over the past few months, especially OpenAI's ultra-realistic sound text-to-speech engine, has given us a glimpse into a new frontier of AI. That new frontier will now include content. Meta unveiled "Emu Video," which turns text into video. Given an image or a photo with a description, Emu Video can create a four-second animated clip. Clips from Emu Video can be edited through a complementary AI model called Emu Edit, which was also announced. Users can describe the edits they want to make to Emu Edit in natural language, such as "same clip, but in slow motion," and see the changes reflected in the newly generated video.
지난 몇 달 동안 공개된 수많은 AI, 특히 OpenAI의 매우 사실적인 사운드 텍스트 음성 변환 엔진은 AI의 새로운 영역을 엿볼 수 있게 해 주었다. 그 새로운 영역에 이젠 콘텐츠도 포함될 예정이다. 메타는 텍스트를 비디오로 만드는 '에뮤 비디오(Emu Video)'를 공개했다. 이미지 또는 설명과 함께 사진이 주어지면 '에뮤 비디오'는 4초 길이의 애니메이션 클립을 생성할 수 있다. 에뮤 비디오의 클립은 함께 발표된 '에뮤 에디트(Emu Edit)'라는 보완적인 AI 모델을 통해 편집할 수 있다. 사용자는 '같은 클립이지만 슬로우 모션으로' 등 자연어로 '에뮤 에디트'에 적용하고자 하는 수정 사항을 설명하고 새로 생성된 동영상에 반영된 변경 사항을 확인할 수 있다.