首页 Metaverse Runway发布Muti Motion Brush,允许在生成视频中添加多个类型的动作和运动
Runway发布Muti Motion Brush,允许在生成视频中添加多个类型的动作和运动

Runway发布Muti Motion Brush,允许在生成视频中添加多个类型的动作和运动

  近日,据海外媒体报道,生成式人工智能科技公司Runway更新了其Gen-2基础模型,通过使用新工具Muti Motion Brush,允许视频创作者在他们的人工智能生成视频的创作中添加多个方向和类型的运动。

  据报道,目前市场上的所有其他竞争产品都只是使用人工智能为整个图像或选定的高亮区域添加运动,而不是多个区域。而此次Runway的更新是在2023年11月首次发布的Motion Brush的功能基础上进行的更新,该功能允许视频内容创作者一次性地向他们的视频中添加某种类型的动作。而此次更新的Multi Motion Brush,则能够在视频的多个区域中加入独立的多个运动或动作。

  在今年早些时候,Muti Motion Brush已经通过Runway的创意合作伙伴项目(Creative Partners Program)进行了提前发布。现在,这个新功能已经向所有用户进行了开放。此次更新也旨在帮助Runway在生成式人工智能领域的行业地位,其主要的竞争对手包括了Pika Labs和Leonardo AI等公司。

  Multi Motion Brush的想法很简单:让用户更好地控制他们生成的人工智能视频,允许他们在选择的区域添加独立的运动。用户可以用Multi Motion Brush做任何事情,从人脸的移动到天空中云的方向。用户首先上传一张静止图像作为提示,然后用电脑光标控制的数字刷(digital brush)进行“绘制”。然后,用户使用滑块控件在Runway的界面来选择他们想要他们的图像的绘制部分移动的方式和强度,而且多个颜色区域都是各自独立控制的。

  用户也可以调整水平、垂直和接近滑块来定义运动应该执行的方向:左/右、上/下或更近/更远,然后点击保存。Runway在官网上提到,每个滑块都有一个小数点值控制,范围从-10到+10。用户可以手动输入数值,向左或向右拖动文本字段或使用滑块。如果你需要重置所有内容,点击‘Clear’按钮将所有内容重置为0。

  Multi Motion Brush的发布强化了Runway的Gen-2基础模型在人工智能生成视频领域的地位。该模型在2023年3月份初次发布,引入了基于文本、视频和图像的生成,是对Gen-1模型的重大升级,而Gen-1只支持基于视频的输出。

  另外,在Gen-2基础模型的初期阶段,它只能生成最多4秒的视频片段。这种情况在去年8月份发生了变化,增加了将视频生成延长至18秒的功能。Runway还推出了“Director Mode”等附加功能,允许用户在生成的视频中选择相机运动的方向和强度/速度,以及选择要制作的视频的风格:从3D卡通和渲染到电影到广告等。

  除了视频生成外,Runway还提供文字转图像的工具,该工具与Midjourney和DALL-E 3等产品是主要的竞争对手。

延伸阅读:

Powered by Froala Editor