几个月后,用户将首次有机会试用 Adobe 的视频生成 AI 模型。该公司表示,由Adobe Firefly Video 模型提供支持的功能将在 2024 年底前在 Premiere Pro 测试版应用和免费网站上推出。
Adobe 表示,生成扩展、文本转视频和图像转视频这三个功能目前处于私人测试阶段,但很快就会公开。
Generative Extend 可让您将任何输入视频延长两秒,将于今年晚些时候嵌入 Premiere Pro 测试版应用中。Firefly 的文本转视频和图像转视频模型可根据提示或输入图像创建五秒视频,也将于今年晚些时候在 Firefly 的专用网站上提供。(Adobe 指出,时间限制可能会增加。)
几十年来,Adobe 的软件一直深受创意人士的喜爱,但像这样的生成式人工智能工具可能会颠覆该公司所服务的行业,无论是好是坏。Firefly 是 Adobe 对最近一波生成式人工智能模型的回应,包括OpenAI 的 Sora和Runway 的 Gen-3 Alpha。这些工具吸引了观众,只需几分钟就能制作出人类需要几个小时才能制作的短片。然而,这些早期的工具尝试通常被认为太不可预测,无法在专业环境中使用。
但可控性正是 Adobe 认为其与众不同之处。Adobe 数字媒体首席技术官 Ely Greenfield表示Firefly 的 AI 工具有“巨大的需求”,因为它们可以补充或加速现有的工作流程。
例如,格林菲尔德表示,Firefly 的生成填充功能(去年添加到 Adobe Photoshop 中)是“过去十年中我们推出的最常用的功能之一”。
Adobe 不会透露这些 AI 视频功能的价格。对于其他 Firefly 工具,Adobe 为 Creative Cloud 客户分配了一定数量的“生成积分”,通常一个积分可产生一个生成结果。显然,更昂贵的计划会提供更多积分。
Generative Extend 可以从原始视频停止的地方继续,以相对无缝的方式添加额外的两秒镜头。该功能会获取场景中的最后几帧,并通过 Firefly 的视频模型运行它们以预测接下来的几秒钟。对于场景的音频,Generative Extend 将重现背景噪音,例如交通或自然声音,但不会重现人声或音乐。格林菲尔德表示,这是为了遵守音乐行业的许可要求。
在一个示例中,格林菲尔德展示了一段宇航员眺望太空的视频剪辑,该视频剪辑已使用该功能进行了修改。我能够看出它被延长了,就在屏幕上出现不寻常的镜头光晕之后,但镜头摇摄和场景中的物体保持不变。我认为当你的场景结束得太早时,这个功能很有用,你需要将它延长一点来过渡或淡出。
Firefly 的文本转视频和图像转视频功能更为人熟知。它们允许您输入文本或图像提示并输出最长五秒的视频。用户将能够在firefly.adobe.com上访问这些 AI 视频生成器,可能会有速率限制(尽管 Adobe 并未具体说明)。
Adobe 还表示,Firefly 的“文本转视频”功能在正确拼写单词方面相当出色,而 AI 视频模型往往难以做到这一点。
在安全措施方面,Adobe 一开始就谨慎行事。格林菲尔德表示,Firefly 的视频模型在生成视频时会屏蔽裸露、毒品和酒精等内容。此外,他补充说,Adobe 的视频生成模型并未针对政客和名人等公众人物进行训练。对于某些竞争对手来说,情况肯定并非如此。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/adobe-xuan-bu-shi-pin-sheng-cheng-gong-neng-jin-nian-jiang