OpenAI推出Sora突破性的文本转视频AI模型
就在谷歌宣布其下一代Gemini 1.5 Pro模型时,OpenAI 出人意料地宣布了突破性的文本到视频人工智能模型 Sora,为谷歌的游行带来了惊喜。新的视频生成模型 Sora 与我们迄今为止在人工智能行业看到的任何模型都不同。从我们看到的例子来看,像 Runway 的 Gen-2 和 Pika 这样的视频生成模型与 Sora 模型相比显得苍白无力。以下是您需要了解的有关 OpenAI 新 Sora 模型的所有信息。
Sora 可以生成长达 1 分钟的视频
OpenAI 的文本到视频 AI 模型 Sora 可以根据文本提示生成高度详细的视频(高达 1080p) 。它非常好地遵循用户提示并模拟运动中的物理世界。最令人印象深刻的是,Sora 可以生成长达一分钟的 AI 视频,这远远长于现有的文本到视频模型生成长达三四秒的视频。
OpenAI展示了许多视觉示例来展示Sora的强大能力。ChatGPT 的制作者表示,Sora 对语言有深刻的理解,可以生成“表达充满活力的情感的引人注目的角色”。它还可以在单个视频中创建多个不同的镜头,并在整个视频中保留人物和场景。
话虽如此,Sora也有一些不足之处。目前,它还不太了解现实世界的物理原理 。OpenAI 解释说,“一个人可能会咬一口饼干,但之后,饼干可能没有咬痕”。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。