【ITBEAR科技资讯】2月16日消息,近日,OpenAI发布了全新的Sora模型,该模型具备根据用户输入的文本描述生成对应视频内容的能力。这一技术的推出,标志着人工智能在理解和模拟真实世界场景方面取得了重大突破。
Sora模型能够深度模拟真实物理世界,并严格按照用户输入的提示词来制作视频。令人印象深刻的是,它可以生成长达一分钟的视频,并保持较高的视觉质量。对于艺术家、电影制片人、学生以及任何需要制作视频的人来说,Sora无疑为他们提供了无限的可能性。
据ITBEAR科技资讯了解,为了确保Sora模型的安全性和实用性,OpenAI已将其交由Team Red进行测试。Team Red是一支专门在网络安全演习中扮演敌人或竞争对手角色的团队,他们将评估Sora潜在的危害或风险,以确保其在正式发布前达到最佳状态。
此外,OpenAI还邀请了一支由创意人士组成的专业团队对Sora进行测试。这些创意人士将提供关于Sora在专业环境中实用性的反馈意见。OpenAI计划根据这些反馈对Sora进行改进,以确保它能有效地满足用户的需求。
演示视频显示,Sora可以创建包含多人、特定运动类型和详细背景的复杂场景。无论是时尚女性走在霓虹闪烁的东京街头,还是雪地里的巨型长毛象,甚至是太空人冒险的电影预告片,Sora都能准确反映用户的提示并生成相应的视频。
然而,尽管Sora具有强大的功能,但它仍然存在一些局限性。OpenAI表示,Sora在模拟复杂场景的物理特性和理解特定因果场景方面面临挑战。此外,它还可能会混淆空间细节,并在精确描述时间事件方面遇到困难。尽管如此,随着技术的不断进步和OpenAI的持续改进,我们有理由相信Sora将在未来取得更大的突破。