导航菜单

OpenAI推出Sora突破性的文本转视频AI模型

导读 就在谷歌宣布其下一代Gemini 1.5 Pro模型时,OpenAI 出人意料地宣布了突破性的文本到视频人工智能模型 Sora,为谷歌的游行带来了惊喜。...

就在谷歌宣布其下一代Gemini 1.5 Pro模型时,OpenAI 出人意料地宣布了突破性的文本到视频人工智能模型 Sora,为谷歌的游行带来了惊喜。新的视频生成模型 Sora 与我们迄今为止在人工智能行业看到的任何模型都不同。从我们看到的例子来看,像 Runway 的 Gen-2 和 Pika 这样的视频生成模型与 Sora 模型相比显得苍白无力。以下是您需要了解的有关 OpenAI 新 Sora 模型的所有信息。

Sora 可以生成长达 1 分钟的视频

OpenAI 的文本到视频 AI 模型 Sora 可以根据文本提示生成高度详细的视频(高达 1080p) 。它非常好地遵循用户提示并模拟运动中的物理世界。最令人印象深刻的是,Sora 可以生成长达一分钟的 AI 视频,这远远长于现有的文本到视频模型生成长达三四秒的视频。

OpenAI展示了许多视觉示例来展示Sora的强大能力。ChatGPT 的制作者表示,Sora 对语言有深刻的理解,可以生成“表达充满活力的情感的引人注目的角色”。它还可以在单​​个视频中创建多个不同的镜头,并在整个视频中保留人物和场景。

话虽如此,Sora也有一些不足之处。目前,它还不太了解现实世界的物理原理 。OpenAI 解释说,“一个人可能会咬一口饼干,但之后,饼干可能没有咬痕”。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢:

最新文章: