《A Mixed-Initiative Interface for Animating Static Pictures》翻译

此文发表于UIST 2018,作者来自Princeton University和Autodesk Research以及University of Toronto


ABSTRACT

我们基于简单的基于草图的标记,提供了一种交互式工具来对静态图片的视觉元素进行动画处理。尽管动画图像增强了网站,信息图表,徽标,电子书和社交媒体的功能,但是从静止图片创建此类动画对于新手来说还是困难的,对专家而言则是乏味的。由于对象分割,相对深度排序和不存在的时间信息模棱两可,因此创建自动工具具有挑战性。通过使用一些用户绘制的涂鸦作为输入,我们的混合主动式创意界面可以提取图像中的重复纹理元素,并支持对其进行动画处理。我们的系统还促进了多层的创建,以增强动画中的深度提示。最后,在分割过程中分析图稿之后,几个动画过程会自动生成与源图像时空相关的动力学纹理[27]。我们的结果以及来自用户评估的反馈表明,我们的系统有效地使插图画家和动画师能够以多种视觉样式为静止图像增添生气。

Author Keywords:Kinetic textures; animation; dynamics; pictures.

INTRODUCTION

动态绘图和电影摄影正变得越来越流行,以生动的环境纹理和元素描绘场景。儿童书籍,徽标,信息图表,电子贺卡,学术论文[21]和社交媒体上的gif图像利用动画元素来增强其吸引力。在所有这些示例中,艺术家精心设置了动画的时间和空间方面,以匹配他们的视觉。此外,最终的动画视频在嵌入最终应用程序后应无缝循环播放,以提供令人愉悦的体验。传统上,此类动画是根据分层图像[27、43]或视频[19、33、38、45、48]生成的。但是,一种引导艺术家视线的方法是使动画类似于静态图像。虽然通常可以想象静态图片中的动态,但是将静态光栅图像转换为动画图像却具有挑战性[15]。该困难主要是由于缺乏动画所必需的语义对象和深度信息。此外,未针对对应的动画框架可能必需的特定动画数据结构(i.e., rigging [25], vector graphics [27], meshes [23, 28,51], hierarchy)优化图像。他们还缺乏时间信息,而有关对象应如何移动的决定通常取决于艺术直觉或讲故事的目标。

图片中的常见现象是重复出现相似的元素。它们可以采取落雪,下雨,落叶或飞鸟,昆虫和气球的形式。艺术家还可以在水中冒出气泡,在礁石中游动的鱼群或在空中飘扬的音符。这样的重复元素在绘制的图片和照片中非常丰富,其中相似但略有变化的对象分布在整个图像上。与以前的动画系统[27]允许艺术家从头开始创建动画纹理不同,我们从类似于最终输出的静态图像开始。从静态图像手动进行动画处理既繁琐又容易出错,因为必须提取所有此类元素(使用GrabCut [39]算法或商用工具,例如Photoshop [3]),并随着时间的推移保留其空间排列。此外,重复对象的存在可以提供有关关联动画的动态的重要线索。

我们使用一些高级引导笔触,从输入的栅格图像(图1a)创建动画图片变得容易。首先,我们的混合主动界面允许用户分解场景中的重复元素。在此步骤中,一旦用户圈出了对象的子集(图1b),我们的系统就会自动在图像中找到相似的对象并将其提取到单独的图层中。其次,我们允许提取多个图层,并允许用户指导这些图层的深度排序。第三,从用户引导的运动路径和提取的对象中,我们的优化步骤生成了动态纹理[27],该纹理与源图像中的元素在时空上是一致的(图1c)。我们分析源场景的语义以生成必要的成分,并优化动力学纹理的参数以大致保留元素随时间变化的空间排列,密度和比例。最后,我们无缝循环生成的动画。我们的贡献是提供了一个新的混合主动接口,该接口综合了现有的图像处理算法和新的动画优化算法并将其扩展到一个基于交互式草图的系统中,以对静态图像进行动画处理。正如我们将演示的那样,我们的算法和UI适用于各种视觉样式(即绘画,卡通,插图,照片,信息图表),这使其适用于各种应用领域和场景。

为了验证我们的系统,我们与六名参与者进行了一系列观察反馈会议。我们的结果表明了我们系统的潜力,指出了未来的工作领域,并表明即使是初次使用的用户也可以在短时间内制作静态图片的动画-对于新手来说,这对于新手来说是一件困难的事情,而对于使用状态信息的专家来说,则是乏味的工作美术工具。

RELATED WORK

本节回顾了从图像和视频创建动画以及查找用于高级图像编辑的纹理元素的先前工作。
Draco:我们的系统的输出与Kazi等人的Draco [27]最相似,因为我们的系统利用Sketchbook Motion iPad应用[8](Autodesk在Draco上的实现)作为渲染器。但是,我们介绍了一些进步之处。我们的方法为单个预先存在的静态图像设置动画,而Draco要求用户从头开始绘制动画的每个部分。从现有图像开始,使绘画技能有限的用户可以设计美观的动画。 Draco还要求用户操纵所有动画参数以获得最终结果。相比之下,我们的系统会根据用户定义的涂鸦和下面的图片自动计算发射线,发射频率和比例。最后,我们介绍一种自动循环生成的动画的方法。

从单个图层进行动画处理:从单个图像进行动画处理始于简单的变形[34]或添加了多种模式来模拟运动[20]。霍里等通过分离前景和背景并向其添加简单的3D建模来模拟深度[22]。与我们的目标最紧密相关的工作是Chuang等人在图片中添加了运动纹理[15]。它们的界面可帮助用户分离动画区域,例如树木,水,船和云。使用随时间变化的位移贴图,它们可以对分离的区域进行动画处理,从而产生诸如摇摆,涟漪,摆动和平移等效果。但是,他们的方法不会提取一个对象的多个实例(即查找所有船只)。我们的系统可以提取与Chuang等人相同的对象,并协助提取图像中的相似对象(即多朵云,船)。对于动画,庄(Chuang)等人的置换贴图产生的动画数量有限。我们的动画处理通过专注于动态纹理[27]而非随机运动纹理来补充其工作,并在指定动画参数时通过利用原始图像元素的属性来扩展其工作。

基于草图的动画工具:研究人员探索了各种方法,可以使用运动草图[17]和直接操纵[23,49,50]技术来简化动画创作。 但是,在这种情况下,必须从头开始绘制要动画的视觉元素[7],或者已经将其作为矢量图形[27],栅格图形[2]或网格[10、28]存储在单独的图层上。 我们输入的单个静态图像缺少单独的图层和数据结构信息,因此需要一种新技术对其进行动画处理。

视频中的动画:使用视频作为动画创建的输入可提供静态图像缺少的信息。 例如,视频对时间信息进行编码,以提供运动示例并通过遮挡显示背景图层。 刘等描述了如何夸张视频中的运动以用于可视化和其他目的[35]。 视频纹理允许原始帧的连续循环,这样就不会重复序列[41]。 电影胶片可以扩展视频纹理,但可以集中精力对图像的特定部分进行动画处理[9,48]。 廖等探索通过用户控制结果动态性来创建循环视频[33]。 片段虽然没有循环,但可以更好地控制视频的空间和时间部分[26]。 Su等将视频变形传输到单独的单个图像[44]。 尽管这些技术产生了令人瞩目的效果,但我们专注于使用单个图像(不存在时间信息)作为动画的输入。

查找纹理元素:图像分割[42]方法通常用于从图像中提取对象或纹理元素。当提取单个对象时,GrabCut可与用户定义的前景和背景标记一起很好地工作[39]。计算机视觉界已经研究了在图片中发现重复元素的问题[4,14,29,31,40]。在此工作中,Cheng等人的RepFinder系统[14]最适合我们的问题。 RepFinder [14]将GrabCut概念扩展到模板匹配[32]的多个相似对象的位置。但是,我们对相似​​对象的定义包括变形和非规则变化,而RepFinder仅识别颜色,位置,方向和比例变化的对象。当处理图片以外的艺术品和绘画时,这种区别尤为重要。我们用于查找纹理元素的方法利用并增强了GrabCut的功能,可将简单的用户输入标记处理为信息量更大的遮罩以进行输入。一旦找到了示例性的纹理元素,研究人员便提出了一些方法来表征如何合成或在实践中使用具有相似统计数据的新纹理[5,6,30,36,37,46]

ANIMATING STATIC PICTURES: CHALLENGES

在给定静态图像作为输入的情况下,不一定存在到对应动画的显式一对一映射。 也就是说,对于静态图像的“动画”版本可能是什么样,可能会有许多合理的解释。 我们系统的目标是为动画师提供创建类似于原始图像但不一定与原始图像完全匹配的动画的工具。 在某些情况下,作者可能希望生成一个动画,其原始图像与最终动画帧的随机子集无法区分。 但是,在其他情况下,作者可能需要更多的创作自由,从而导致与源图像的差异。 在开发有助于实现这两个互补目标的系统时,要克服许多挑战。

深度模糊性:一项挑战是从单个图像确定深度顺序。 我们如何知道小物体是否比图像中的其他物体更远或更小? 例如,图1中的气球可能对其深度排序有多种可能的解释。 不同大小的气球可以位于单独的图层上,每一个较小的气球都比较大的气球落后/远离。 此外,由于图像中的遮挡线索,气球最小的图层将在城堡后面飞行。 在不同的解释中,气球还可能从左下角靠近用户的位置飞行,然后再行进更远并穿过城堡,因此变得更小。

时间模糊性:将图像分成几层后,在尝试对图像进行动画处理以使其与原始图像相似时,会遇到更多的挑战,例如缺少时间信息。例如,图1中的气球是否从左下角到右上角直线移动?还是它们沿该过程弯曲,摆动和旋转?此外,图像无法提供物体速度的线索。所有的气球都在图像上缓慢移动吗?还是较大的气球移动得更快?

循环播放:另一个挑战是希望最终的动画视频无缝循环播放,场景中的所有动画元素都在开始和结束时匹配。以前用于循环播放视频的技术(例如[9、26、33、41])依赖于对自然图像纹理元素进行变形和混合,对于许多我们在视觉上与众不同的手绘元素而言,效果并不理想例子。

总体而言,这种歧义促使我们采取混合行动解决我们的问题。尽管可以做出某些推断,但我们不能指望算法能够完全自动运行,因为可以通过多种方式从静止图像解释动画。例如,用户应该能够指定如何将对象分成几层,或者调整其运动路径和速度。为用户提供允许他们指定所有这些约束的UI本身就是一个挑战。一般而言,将用户输入与自动算法结合在一起将使艺术家可以自由选择最适合其艺术视野的原始静止图像的解释。

 

SYSTEM OVERVIEW

我们的系统允许用户将静态图像作为输入,并使用高级手势为对象设置动画,以创建与原始图像相似的预期动画。 我们依靠混合启动方法,将自动匹配的图像处理算法的功能与简单的交互式工具相结合,以迭代或指导结果。 首先,在用户注释的示例的指导下,我们的系统有效地检测并从图像中提取相似外观的元素。 一旦将元素,前景和背景分成几层,用户就可以将它们重新排列为所需的深度和遮挡效果顺序(图2)。 对图像进行动画处理时,我们使用原始图像中的数据来调整动画参数。

Extracting Repeating Objects

我们的系统针对具有多个应设置动画对象实例的图像。 例如,可能有大小和颜色不同的气球(图1),大小不同的灯笼(图3),鳄梨片(图14),蝴蝶和雨滴(图15a,e)。 由于重复对象的种类繁多,并且在单个图像中它们之间可能存在差异,因此我们选择一种迭代的交互式方法。 我们允许用户快速选择用于动画的那些对象的子集。 从这些示例对象中,我们在图像的其余部分中搜索相似的对象,以将其从背景中删除。 在每个步骤中,我们都为用户提供交互式工具,以完善我们的自动结果。 最后,我们修补背景[12],并返回两个新层:一个是透明的,仅包含示例对象,另一个是完整的背景,并删除了所有选定对象。

Depth Ordering with Layers

尽管此新背景将删除所有动画对象,但用户可能希望将其他区域分为其他区域。 例如,丘陵(图1),人(图3),筷子(图14),发动机零件或树木(图15b,d)可能位于中间层,并且前后都有动画对象。 在这种情况下,我们允许用户补充我们的自动分区算法,以选择要提取图像的确切部分。 我们为用户提供了一个透明层,其中包含中间地面对象和一个已修复背景(图2)。 这些层使用户可以对中间地面对象进行动画处理,而动画中不会出现孔洞。 有了这些新图层以及重新排列其顺序的能力,用户便可以弄清源图像中存在的任何深度顺序歧义。

Animation Optimization

我们为用户提供了添加动态纹理动画框架的所有动态元素的能力[27]。 通过用户绘制的运动线,我们利用原始图像中元素的位置来自动创建发射器路径,该发射器路径以定义的频率和速度生成粒子。 我们控制发射频率以匹配静态物体的密度源图像。 在某些情况下,发射对象可能沿其路径缩放(图12)或可能在不同的层上传播(图2)。 我们提供自动方法来设置这些属性。 我们还介绍了一种创建无缝循环动画的方法,同时保留了场景中所有对象的时间一致性。

USER INTERFACE

我们设计和开发了一个交互式系统,允许用户为现有的静态图片制作动画。 我们的系统被实现为Autodesk Sketchbook Motion iPad应用程序[8]中的插件,并借鉴了其一些现有的UI元素。 该界面具有一个主画布,图层面板,全局和上下文工具栏(图3)。 典型的工作流程始于用户导入图像并将图像分解为动画和背景对象层。 最后,用户将动画效果添加到图层并导出循环的动画视频。 我们在下面详细说明工作流程。

Layer Panel

我们使用SketchBook Motion的未修改图层面板,该面板与其他图形编辑工具[8]相似。 我们的每个分解和分离过程都会创建一个临时层,用于存储画笔标记和结果。 每个画笔都会创建一个新图层,该图层将转换为黑色(背景)和白色(画笔标记)蒙版,作为我们算法的输入,在下一节中将进行介绍。 在每个过程之后,我们清除临时层并将其替换为最终层。 用户还可以手动添加,删除和复制图层。

Segmenting Objects to be Animated

如上一节所述,第一个挑战是从背景中提取要设置动画的元素。我们的UI指导用户完成以下三个步骤:(1)查找要动画的示例对象,(2)在场景中搜索相似的对象,以及(3)修补背景。

对于步骤1,我们将示例对象提取到单独的图层上。首先,使用“圆形对象”画笔(图4a)围绕用户稍后将为其设置动画的所有对象绘制圆形(图5a)。可以将对象分别圈起来(图1b)或一起圈出(图5a)。接下来,我们的算法将圈出的对象分离到自己的图层上(图5b)。用户说明每个圆圈中的哪些像素属于示例对象(“前景”画笔),哪些属于背景(“背景”画笔)。

在步骤2中,我们在图像的其余部分中搜索相似的重复对象(图5c)。我们确信与以前圈出的对象相似的对象以实心深粉红色显示。对于浅粉红色突出显示的对象,我们信心不足。用户可以使用“智能对象选择”画笔(图4b)将要修补的深粉红色替换为浅粉红色区域(图5d,e)。

最后,在第3步中,我们修补了所有先前标记的深粉红色区域(图5f)。用户可以使用“ Inpaint area”笔刷删除更多区域(图4c)。完成后,将创建仅包含示例对象的透明层和具有内嵌背景的层。

Depth Ordering

对于深度效果,用户可能希望将图像的其他部分提取到单独的图层中。 在进入单独的图层菜单之前,我们会自动尝试从背景中提取前景。 用“前景”和“背景”画笔细化结果后,“分离图层”按钮重新运行我们的分离算法(图4d)。 完成后,我们将提取的前景先前覆盖的区域修复。 临时层被删除,并创建了两个新层,一个只有前景色的透明层,另一层是已修复背景的层。

Animation

进行动画制作时,用户可以使用Sketchbook Motion的现有界面[8]添加动态或振荡纹理。 对于动态纹理,用户绘制一条或多条运动路径线,如图4e中的“风”按钮所示。 绘制每条线之后,我们自动创建一个发射器-一条以定义的频率和速度生成粒子的路径(图6a)。 我们还允许用户手动创建发射器。 用户可以选择将发射保持在固定的密度,我们尝试匹配初始图像中对象的密度(图6b),或者他们可以手动设置发射频率和速度。 如果原始图像中存在不同比例的对象,则用户可以沿运动路径缩放对象(图6c)或将对象分为两层或三层。

SYSTEM IMPLEMENTATION

我们的系统是在iPad上实现的,使用OpenCV [13]和Image Stack [1]进行图像处理,使用GrabCut [39]进行图层提取,使用PatchMatch [11]进行修补。 假设先前提取重复对象的工作[14、29]可以在iPad上交互运行,则这两种方法都可以替换管道层提取组件中的GrabCut [39]

Extracting Repeating Objects

为了从图像中提取对象,我们的三步过程允许用户将自动帮助和详细控制进行最佳组合,以进行微调。

Finding Exemplar Objects

当图像具有多个对象实例时,在最终动画中并不是每个实例都需要。有些实例可能太小,另一些实例可能被遮挡,还有一些实例可能缺少细节,因此在制作动画时看起来并不令人满意。因此,在最终动画中,我们仅使用由用户圈出并由我们的方法提取的示例对象(图7a)。

我们通过从“圆形对象”画笔中找到蒙版的轮廓来开始分离圆形区域。圆形区域是通过具有质心彼此靠近(相距少于五个像素)的内部和外部轮廓来定义的。对于每个区域,我们使用GrabCut [39]进行五次迭代来提取对象。要运行GrabCut,我们需要确定每个圆圈区域内背景和前景的样本区域。我们使用LAB颜色空间中像素颜色的k均值将圆内的像素分为15组(图7b)。接下来,将圆圈下面的所有组标记为背景(图7c)。对于前景,我们选择距离所有背景组平均距离最远的组(图7c)。我们用前景组和任何前景笔刷标记作为前景,将圆和任何背景笔刷标记作为背景,并且默认情况下将所有其他像素标记为背景来初始化GrabCut。将用户的商标直接输入到GrabCut中会更加繁琐,因为需要更多的商标。结果是只有圆圈对象可见的图像(图7d,图8c)。

使用画笔,用户可以通过仔细地将对象的内部标记为前景,并将其他内容标记为背景,来迭代结果。在大多数情况下,没有必要进行细化或仅进行细微的细化。

Finding Similar Objects

一旦用户指定了示例对象,我们的目标就是在图像的其余部分中找到这些对象的相似实例(雨滴,雪花,气球等)。这些实例的形状,方向,比例,颜色和遮挡可能会有所不同。从上一步中,我们知道每个圆圈区域内的前景(对象)和背景(所有其他像素)的指示。我们在整个图像上运行GrabCut,这些显示和未知像素默认为背景(图9a)。我们将一个对象声明为前景像素的连接组(图9b)。但是,根据我们的经验,此声明会导致一些误报。因此,我们根据归一化面积和纵横比过滤结果。带圆圈的对象用作基本事实,以统计方式确定其他对象是否是使用四分位数的离群值。我们将标注离群值的标签迭代为真,直到收敛。标记为true的对象用深粉红色表示,而从GrabCut标记为前景的对象则用浅粉红色突出显示,但未被过滤为真实对象(图9c,图8d)。

通常,此方法会找到许多可能的对象。根据选择的对象,我们的过滤可能很严格,并导致许多对象用浅粉红色而不是深粉红色标记。用户可以通过迭代前景,背景和智能对象选择的新标记来优化此结果。

此外,我们尝试了多种机器学习算法(k均值,一类SVM)来标记对象。这些技术没有返回有意义的结果,因为我们通常只有3到8个真相示例来标记大约10到100个其他对象实例。

Inpainting

提取所有对象后,我们将使用PatchMatch的实现来填充背景孔[11](图8e)。 但是,我们的系统是模块化的,因此可以用更强大或更专业的算法替换修补方法[16、18、24、52]。 另外,用户可以在要填充的其他区域上粉刷。 在由于遮挡而错过对象的一小部分或整个对象的情况下,此交互很有帮助。

Depth Ordering with Layers

再次,我们使用GrabCut将图像的其他部分拆分为更多层。 为了给前景和背景区域添加种子,当在圆圈区域中找到前景时,我们使用了类似的技术。 使用LAB颜色的k均值将像素分为30组。 在用户定义的背景标记中或在没有用户标记的情况下,图像的前五行非透明行中的所有组均被设置为背景。 距离所有背景组平均距离最远的单个组被选为前景。 所有其他像素都标记为可能是前景。 GrabCut的输入结果将呈现给用户。 优化后,使用PatchMatch [11]修复前景区域。

Animation Optimization

我们展示了几种方法来自动增强发射器的创建和参数调整,以快速创建类似于原始静止图像的动画。

Emitter Creation

根据用户绘制的运动线,我们在整个图像上创建矢量场[27]并计算发射线。首先,我们收集在对象提取步骤中发现的所有示例和相似对象。从这些对象,我们计算出由它们扩展成单个合并区域和它们的凸包的交点所覆盖的最小对象区域。通过对垂直于运动线起点的一条线进行查找,并找到其与凸包边界的交点,可以得出我们对发射线的初步猜测。我们将这条线推到对象区域之外,然后将相交点投影到这条新线上(图10a)。这两个端点是我们发射极线的初始猜测。

另外,我们希望来自发射器的粒子覆盖初始对象所在的整个区域(图10b)。对于每个端点,我们要么收缩它,直到沿着矢量场传播的发射粒子从不相交对象区域切换为相交,要么扩展它直到与对象区域相交的粒子不再这样做。如果用户绘制多条运动线,我们将在检查对象区域覆盖之前对投影的端点进行平均(图10c,d)。为了沿着发射器线发射物体,我们将线精细地采样到发射点[27]。如下所述,在每次迭代中,我们确定哪个发射点应该发射一个对象。每个发射点选择当时将发射哪个示例对象。

Emission Frequency

我们通过设置每个时间步长发射新物体的概率来控制发射频率。 我们的目标是调节发射频率,以使对象随机(但大致均匀)分布,并且屏幕上的对象数n接近N,即基于原始图像的目标数。 我们通过确定在示例步骤和类似对象步骤中找到的单独区域(像素的连接分量)的数量来找到N。 这样,我们所有的结果都直接使用N。 但是我们还提供了一个控件,允许用户手动向上或向下调整此数字。 我们的补充材料显示了此类调整的一些示例。

该公式将排放概率分为两个阶段。 初始阶段使用每个时间间隔内粒子发射的恒定概率填充对象“管道”。 稍后,在填充管道所需的预期持续时间之后,我们转到一个阶段,在该阶段,控制器C(n)根据当前对象数n是否小于或大于目标数N来向上或向下调节发射概率。 。 初始阶段的持续时间是对象沿着矢量场传播的平均距离D除以它们的平均速度v。 我们将“稳态”发射概率P d设置为物体从场景中消失的预期概率,这是通过涉及时间间隔δ的类似计算得出的:

该控制器确保在稳定状态下,对象数量保持在目标数量附近,同时允许由于随机性而产生的微小波动。 图11a显示了在灯笼结果动画过程中对象的数量如何变化。
最后,一旦确定要发射粒子,就需要从发射器线中选择发射位置。 我们随机选择,以每个电位发射点到最近发射的对象的距离加权。 这种权重避免了将一个物体发射到另一个现有物体附近,从而使结果具有随机但更均匀的分布。

Auto-scaling

为了自动缩放对象,我们根据是沿着路径还是在图层之间缩放来提供两种方法(图12)。为了沿着运动路径缩放对象,它们的组成部分是每个对象的像素面积除以平均示例对象像素面积。 x分量是对象移动的运动路径距离的百分比。我们通过这些点拟合一条线,并用其缩放示例对象的发射距离(图11b,图12a)。

为了在层之间缩放对象,我们使用k均值根据示例对象的像素面积对它们进行聚类。在每个群集中,我们仅使用那些对象创建一个新层,从而复制发射器线和运动路径。为了设置每一层的发射频率,我们用k均值对所有对象进行聚类,以确定每个新层中的N。我们将最大对象层的速度设置为与原始层相同。随后的每一层速度都与该层的平均对象面积除以原始层的平均对象面积成正比(图12b)。

Looping

为了创建令人愉悦的动画,我们希望最终导出的视频无缝循环-动画元素(包括发射的粒子)应在第一帧和最后一帧中匹配。 我们将循环的发射粒子与其他动画对象分开处理。 首先,我们记录一个持续一到三分钟的动画序列,并确保包含至少两个完整周期的发射粒子。


为了使发射器循环,我们搜索时间间隔,在该时间间隔开始和结束时所发射对象的数量和间隔都相似(图13a)。 另外,我们希望间隔持续时间在粒子最大寿命的2到4倍之间。 

当循环其他对象时,我们希望它们的位置,旋转,比例和alpha值在整个接缝处为C 1。 另外,如果场景中有一个发射器,则使循环时间间隔与先前从该发射器中找到的时间间隔相同。 我们搜索所有已保存的动画数据,以确定最接近时间间隔(在一秒钟之内)的最佳间隔。 接下来,修改时间间隔内的属性,以使时间间隔边缘处的位置和切线等于原始值的平均值。 我们将原始属性值与贝塞尔曲线相结合,该贝塞尔曲线由每个边缘点的点和切线之差与平均值形成。 最后,重新映射此时间间隔以精确跨越发射器时间间隔。 请查看我们的补充材料以获取循环动画结果。

USER EVALUATION

为了获得对我们系统的初步见解和反馈,我们进行了非正式的定性用户评估。

Participants

我们招募了六名参与者(四名女性和两名男性,年龄在20-45岁)来测试我们的系统。 三个主题具有丰富的艺术经验,并定期创作自己的插图。 他们的动画技巧水平各不相同:一个是新手,四个经验丰富,一个是专业人士。 先前有四名受试者曾接触过Sketchbook Motion [8]。 两个对象使用我们的系统制作了自己的图像(两张图纸和两张照片)(图14)。 参与者是从Autodesk招募的,他们的时间得到了补偿。

Study Protocol

每次课程持续一到两个小时。 首先,我们向参与者展示了使用我们的系统创建的一些结果(图15)。 此概述使他们对将要创建的动画类型有广泛的了解。 我们使用史努比示例演示了我们的系统,以提取重复的雪花,同时以交互方式细化结果(图15f)。 提取出雪花后,我们便对示例进行了动画处理,并将雪花自动缩放为两层。 回答有关系统的任何问题后,我们让参与者将圆点示例(图15c)作为简单的热身任务,对气球示例(图1)进行动画,作为更高级的测试任务。 在处理圆点示例时,如果他们对过程感到困惑,我们会提供提示和建议。 对于气球,当他们使用系统时,我们没有提供建议。 在每个示例之后,我们向参与者询问有关他们的经历的问题。

Results and Observations

参与者发现我们的系统很有用,并提到他们将使用它来制作用于原型制作,社交媒体,电子贺卡,背景运动和教育的动画。在对我们的评论中,他们都报告说我们的系统比其他工具(即Photoshop [3]和AfterEffects [2])更快。他们估计,使用这些工具进行的类似任务将花费15分钟到2个小时,而我们的系统需要6到10分钟。一位参与者提到,在Sketchbook Motion中重画图像并重现结果将花费30-40分钟。所有人都同意,其他系统要想产生类似的结果将非常繁琐。我们还向用户询问了两个问题(“您觉得该系统易于学习吗?”和“您觉得该系统易于使用吗?”),并记录了他们的回答,如下所示:学习:平均值= 3.8(σ= 0.42 )并使用:平均值= 3.9(σ= 0.49)–从1 =“难”到5 =“极其容易”。
与我们的系统互动时,对象会为其动画表达各种独特的视觉效果。 (有关示例,请参见补充材料。)在分割圆点图像时,一些参与者为其示例对象圈出了一系列颜色和大小。其他参与者将波尔卡圆点按颜色分成不同的层。为达到这个结果,他们将原始图像分割了三遍,每次仅提取一种颜色的示例对象。以气球示例为例,大多数参与者圈出了一些大,中,小气球作为示例对象。一些用户难以记住分段过程的步骤。四个人感到困惑,只有带圆圈的示例对象出现用于动画。他们认为物体在第一步之后就消失了,因为我们没有提供任何视觉上的指示。这些问题可以通过改进布局和图标指示来解决。

另外,四个参与者不确定每个画笔(特别是前景画笔和背景画笔)的用途。因此,他们在没有帮助的情况下难以完善自动结果。两个用户认为智能对象选择笔刷会圈住浅粉红色对象,而不是填充它们。主动使用气球的时间(无计算时间)为3至4.5分钟。在动画过程中,所有参与者对创建的动画感到满意。绘制运动线后,大多数用户调整了对象速度。有些人决定用手动绘制的线代替我们的自动发射线。他们对我们将对象自动拆分为不同层的方法非常感兴趣。在将气球自动缩放为多层时,一些参与者希望根据颜色进行分离或设置滑动比例以按区域划分。用户花了两到六分钟的时间对提取的对象进行动画处理。尽管观察到这些挑战中的一些挑战,但所有用户都成功制作了气球图像动画。除了对气球图像进行动画处理外,两个用户还制作了自己的两个图像。一位参与者从一个食物碗图像中提取了鳄梨,并在其他食物周围盘旋了鳄梨(图14)。她还分开了筷子,将它们放在动画的鳄梨上。在她的另一部动画中,雨水落在一个带伞的女孩后面。另一个用户为其两张照片制作了动画。他合上了一只吊灯,使其缓慢摆动。另一方面,他提取了火花并使它们在滑板上飞翔。两个用户都对他们添加到图像中的动画印象深刻并感到满意。请查看补充材料和视频以获取动画。

RESULTS

除了用户创建的四个示例外,我们还为其他11个图像设置了动画。其中的六个显示在图15中。有关所有循环播放的动画结果以及创建它们的用户输入,请参见我们的补充材料和视频。原始图片具有多种样式:插图,图表,信息图表,照片和卡通。下面我们描述如何使用我们的混合启动方法生成结果。在提取重复对象时,在四种情况下,我们用于在圆圈内查找对象的方法是完全自动的。六个示例需要一些其他标记才能更好地定义前景的一小部分。例如,需要将一些气球连接线(图1和图15d)和黑蝴蝶翼部分(图15a)指定。


查找相似对象时,七个示例需要一些智能对象标记来完善过滤。在大多数情况下,只需标记几个对象。引擎和史努比这两个结果(图15b,f)需要标记为对象的区域的背景标记,但实际上并不需要。进行修补时,三个结果使用了Inpaint笔刷标记了要填充的更多区域。
为了增加深度效果,九个结果将图像的大部分分割成附加的层。例如,发动机将活塞和齿轮分开。气球把树木隔开。然后青蛙将叶子分开(图15b,d,e)。使用史努比,雪,房屋和树木都从天空中提取出来(图15f)。对于动画,大多数结果只需要一个运动路径。三个示例(蝴蝶,引擎和青蛙)需要多个运动路径(图15a,b,e)。调整速度后,我们的五个示例已完成。在两种情况下,我们沿运动路径缩放对象。通过四个示例,我们将对象分为两层或三层(图15d,e,f)。具有最小物体的层位于中层以下(图15e,f中的青蛙和史努比)。为了进一步增强动画效果,我们向发射对象添加了颗粒平移或旋转[27]。我们还调整了灯笼(图12)和蝴蝶(图15a)的不透明度,以使对象随着出现而淡入。总体而言,结果表明,使用我们的交互式和迭代界面,可以在各种视觉样式中实现令人愉悦的动画。当我们的自动化方法无法产生准确的预期结果时,可以根据需要使用简单的手势快速完善结果。

LIMITATIONS AND FUTURE WORK

尽管我们的系统可以很好地适用于各种视觉样式和效果,但我们的参与者指出了一些改进的机会。由于我们依靠GrabCut提取对象,因此受到其局限性的限制。例如,如果对象的颜色不同,而用户仅圈出一种颜色的对象,我们将错过将不同颜色的对象标记为前景的想法。但是,由于所有发出的对象都是单一颜色,因此生成的动画将与源图像不同。我们算法的另一个限制是透明对象。由于GrabCut仅将每个像素指示为前景或背景,因此无法提取具有透明度的对象。要提取透明对象,必须对GrabCut的输出进行额外的处理或新的分割算法[47]。此外,我们的方法无法分离重叠的对象,因此它们不能出现在最终动画中。但是,它们很容易从背景中删除,如图15d,e,f中的气球,雨滴和雪花所示。目前,我们的技术适用于使用动力学纹理对重复元素进行动画处理。但是,要使诸如次级运动,火,水,烟,碰撞和衣服等各种其他现象动起来,则需要对分割的对象应用物理模拟[49]。此外,网格变形或3D模型还将扩大动画效果的范围。这些变化将保留为将来的工作。在我们的用户研究期间,一些参与者难以记住每个画笔的功能。对于将来的UI改进,我们可以改进笔刷名称并添加工具提示以进行更好的说明。与会者对于是否应使用刷子盘旋或填充区域也感到困惑。可能更改画笔图标将有助于消除这种混乱。另一个建议是将对象分成多个层应该在动画之前而不是之后。将来,我们希望完善这些工作流程的细微之处,并对我们的系统进行更彻底的评估。我们系统的缺点之一是无法实时创建结果。提取样本并找到相似的对象平均需要10秒钟,最多30秒钟。我们的图像修补方法花费四到八分钟之间。修复过程运行缓慢的主要原因是我们合并了特定的iOS库实现。如Adobe Photoshop(桌面)和Adobe Photoshop Fix(iOS)[3]所示,画内画可以很快,因此不是我们建议的过程的固有限制。

CONCLUSION

从头开始创建动画图片对于业余和非专业人士而言都是具有挑战性的。 在本文中,我们提出了一种使用户能够通过将单个静态光栅图像作为输入来创建动画图片的方法。 这样,业余爱好者和专业人士都可以以交互,迭代的方式利用和动画化现有图片(不考虑视觉样式),否则这将是非常繁琐的过程。

REFERENCES

1. A. Adams. 2017. Image Stack. (2017).https://github.com/abadams/imagestack
2. Adobe. 2017a. AfterEffects. (2017).
3. Adobe. 2017b. Photoshop. (2017).
4. Narendra Ahuja and Sinisa Todorovic. 2007. Extracting texels in 2.1 D natural textures. In Computer Vision, 2007. ICCV 2007. IEEE 11th International Conference on. IEEE, 1–8.
5. Zainab AlMeraj, Craig S. Kaplan, and Paul Asente. 2013. Patch-based Geometric Texture Synthesis. In Proceedings of the Symposium on Computational Aesthetics (CAE ’13). ACM, New York, NY, USA, 15–19. DOI: http://dx.doi.org/10.1145/2487276.2487278
6. Zainab AlMeraj, Craig S. Kaplan, Paul Asente, and Edward Lank. 2011. Towards Ground Truth in Geometric Textures. In Proceedings of the ACM SIGGRAPH/Eurographics Symposium on Non-Photorealistic Animation and Rendering (NPAR ’11). ACM, New York, NY, USA, 17–26. DOI: http://dx.doi.org/10.1145/2024676.2024679
7. Christine Alvarado and Randall Davis. 2001. Resolving ambiguities to create a natural sketch based interface. In Proceedings of IJCAI-2001, Vol. 18. 1365–1371.
8. Autodesk. 2016. Sketchbook Motion: An app for adding movement to your art. https://www.sketchbook.com/blog/motion-new-app sketchbook-pro-members/ . (2016). Accessed: 2017-09-4.
9. Jiamin Bai, Aseem Agarwala, Maneesh Agrawala, and Ravi Ramamoorthi. 2013. Automatic cinemagraph portraits. In Computer Graphics Forum, Vol. 32. Wiley Online Library, 17–25.
10. Yunfei Bai, Danny M. Kaufman, C. Karen Liu, and Jovan Popovi´ c. 2016. Artist-directed Dynamics for 2D Animation. ACM Trans. Graph. 35, 4, Article 145 (July 2016), 10 pages. DOI: http://dx.doi.org/10.1145/2897824.2925884

11. Connelly Barnes, Eli Shechtman, Adam Finkelstein, and Dan B Goldman. 2009. PatchMatch: A Randomized Correspondence Algorithm for Structural Image Editing. ACM Trans. Graph. 28, 3, Article 24 (July 2009), 11 pages. DOI: http://dx.doi.org/10.1145/1531326.1531330
12. Marcelo Bertalmio, Guillermo Sapiro, Vincent Caselles, and Coloma Ballester. 2000. Image Inpainting. In Proceedings of the 27th Annual Conference on Computer Graphics and Interactive Techniques (SIGGRAPH ’00). ACM Press/Addison-Wesley Publishing Co., New York, NY, USA, 417–424. DOI: http://dx.doi.org/10.1145/344779.344972
13. G. Bradski. 2000. The OpenCV Library. Dr. Dobb’s Journal of Software Tools (2000).
14. Ming-Ming Cheng, Fang-Lue Zhang, Niloy J. Mitra, Xiaolei Huang, and Shi-Min Hu. 2010. RepFinder: Finding Approximately Repeated Scene Elements for Image Editing. ACM Trans. Graph. 29, 4, Article 83 (July 2010), 8 pages. DOI: http://dx.doi.org/10.1145/1778765.1778820
15. Yung-Yu Chuang, Dan B Goldman, Ke Colin Zheng, Brian Curless, David H. Salesin, and Richard Szeliski. 2005. Animating Pictures with Stochastic Motion Textures. ACM Trans. Graph. 24, 3 (July 2005), 853–860. DOI: http://dx.doi.org/10.1145/1073204.1073273
16. Antonio Criminisi, Patrick Perez, and Kentaro Toyama. 2003. Object removal by exemplar-based inpainting. In Computer Vision and Pattern Recognition, 2003. Proceedings. 2003 IEEE Computer Society Conference on, Vol. 2. IEEE, II–II.
17. Richard C. Davis, Brien Colwell, and James A. Landay. 2008. K-sketch: A ’Kinetic’ Sketch Pad for Novice Animators. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI ’08). ACM, New York, NY, USA, 413–422. DOI: http://dx.doi.org/10.1145/1357054.1357122
18. Iddo Drori, Daniel Cohen-Or, and Hezy Yeshurun. 2003. Fragment-based Image Completion. ACM Trans. Graph. 22, 3 (July 2003), 303–312. DOI: http://dx.doi.org/10.1145/882262.882267
19. FlixelStudios. 2017. Flixel: Magical Tools for Visual Storytelling. https://flixel.com/ . (2017). Accessed: 2017-08-10.
20. William T Freeman, Edward H Adelson, and David J Heeger. 1991. Motion without movement. Vol. 25. ACM.

21. Tovi Grossman, Fanny Chevalier, and Rubaiat Habib Kazi. 2015. Your Paper is Dead!: Bringing Life to Research Articles with Animated Figures. In Proceedings of the 33rd Annual ACM Conference Extended Abstracts on Human Factors in Computing Systems (CHI EA ’15). ACM, New York, NY, USA, 461–475. DOI: http://dx.doi.org/10.1145/2702613.2732501
22. Youichi Horry, Ken-Ichi Anjyo, and Kiyoshi Arai. 1997. Tour into the Picture: Using a Spidery Mesh Interface to Make Animation from a Single Image. In Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques (SIGGRAPH ’97). ACM Press/Addison-Wesley Publishing Co., New York, NY, USA, 225–232. DOI: http://dx.doi.org/10.1145/258734.258854
23. Takeo Igarashi, Tomer Moscovich, and John F. Hughes. 2005. As-rigid-as-possible Shape Manipulation. In ACM SIGGRAPH 2005 Papers (SIGGRAPH ’05). ACM, New York, NY, USA, 1134–1141. DOI: http://dx.doi.org/10.1145/1186822.1073323
24. Satoshi Iizuka, Edgar Simo-Serra, and Hiroshi Ishikawa. 2017. Globally and Locally Consistent Image Completion. ACM Trans. Graph. 36, 4, Article 107 (July 2017), 14 pages. DOI: http://dx.doi.org/10.1145/3072959.3073659
25. Alec Jacobson, Ilya Baran, Jovan Popovi´ c, and Olga Sorkine-Hornung. 2014. Bounded Biharmonic Weights for Real-time Deformation. Commun. ACM 57, 4 (April 2014), 99–106. DOI: http://dx.doi.org/10.1145/2578850
26. Neel Joshi, Sisil Mehta, Steven Drucker, Eric Stollnitz, Hugues Hoppe, Matt Uyttendaele, and Michael Cohen. 2012. Cliplets: Juxtaposing Still and Dynamic Imagery. In Proceedings of the 25th Annual ACM Symposium on User Interface Software and Technology (UIST ’12). ACM, New York, NY, USA, 251–260. DOI: http://dx.doi.org/10.1145/2380116.2380149
27. Rubaiat Habib Kazi, Fanny Chevalier, Tovi Grossman, Shengdong Zhao, and George Fitzmaurice. 2014. Draco: Bringing Life to Illustrations with Kinetic Textures. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI ’14). ACM, New York, NY, USA, 351–360. DOI: http://dx.doi.org/10.1145/2556288.2556987
28. Rubaiat Habib Kazi, Tovi Grossman, Nobuyuki Umetani, and George Fitzmaurice. 2016. Motion Amplifiers: Sketching Dynamic Illustrations Using the Principles of 2D Animation. In Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems (CHI ’16). ACM, New York, NY, USA, 4599–4609. DOI: http://dx.doi.org/10.1145/2858036.2858386
29. Yan Kong, Weiming Dong, Xing Mei, Xiaopeng Zhang, and Jean-Claude Paul. 2013. SimLocator: robust locator of similar objects in images. The Visual Computer 29, 9 (2013), 861–870.
30. David H. Laidlaw. 2001. Loose, artistic” textures” for visualization. IEEE Computer Graphics and Applications 21, 2 (2001), 6–9.
31. Thomas Leung and Jitendra Malik. 1996. Detecting, localizing and grouping repeated scene elements from an image. In European Conference on Computer Vision. Springer, 546–555.
32. John P Lewis. 1995. Fast template matching. In Vision interface, Vol. 95. 15–19.
33. Zicheng Liao, Neel Joshi, and Hugues Hoppe. 2013. Automated Video Looping with Progressive Dynamism. ACM Trans. Graph. 32, 4, Article 77 (July 2013), 10 pages. DOI: http://dx.doi.org/10.1145/2461912.2461950
34. Peter Litwinowicz and Lance Williams. 1994. Animating images with drawings. In Proceedings of the 21st annual conference on Computer graphics and interactive techniques. ACM, 409–412.
35. Ce Liu, Antonio Torralba, William T. Freeman, Frédo Durand, and Edward H. Adelson. 2005. Motion Magnification. ACM Trans. Graph. 24, 3 (July 2005), 519–526. DOI: http://dx.doi.org/10.1145/1073204.1073223
36. Hugo Loi, Thomas Hurtut, Romain Vergne, and Joelle Thollot. 2017. Programmable 2D Arrangements for Element Texture Design. ACM Trans. Graph. 36, 3, Article 27 (May 2017), 17 pages. DOI: http://dx.doi.org/10.1145/2983617
37. Gioacchino Noris, Daniel S` ykora, A Shamir, Stelian Coros, Brian Whited, Maryann Simmons, Alexander Hornung, M Gross, and R Sumner. 2012. Smart scribbles for sketch segmentation. In Computer Graphics Forum, Vol. 31. Wiley Online Library, 2516–2527.
38. S O’Kane. 2015. Apple’s new Live Photos feature turns your pictures into videos. https://www.theverge.com/2015/9/9/9296829/ apple-live-photos-feature-iphone-6s . (2015). Accessed: 2017-09-4.
39. Carsten Rother, Vladimir Kolmogorov, and Andrew Blake. 2004. ”GrabCut”: Interactive Foreground Extraction Using Iterated Graph Cuts. ACM Trans. Graph. 23, 3 (Aug. 2004), 309–314. DOI: http://dx.doi.org/10.1145/1015706.1015720
40. Frederik Schaffalitzky and Andrew Zisserman. 1999. Geometric grouping of repeated elements within images. In Shape, Contour and Grouping in Computer Vision. Springer, 165–181.
41. Arno Schödl, Richard Szeliski, David H Salesin, and Irfan Essa. 2000. Video textures. In Proceedings of the 27th annual conference on Computer graphics and interactive techniques. ACM Press/Addison-Wesley Publishing Co., 489–498.

42. Jianbo Shi and Jitendra Malik. 2000. Normalized cuts and image segmentation. IEEE Transactions on pattern analysis and machine intelligence 22, 8 (2000), 888–905.
43. Mikio Shinya, Masakatsu Aoki, Ken Tsutsuguchi, and Naoya Kotani. 1999. Dynamic Texture: Physically Based 2D Animation. In ACM SIGGRAPH 99 Conference Abstracts and Applications (SIGGRAPH ’99). ACM, New York, NY, USA, 239–. DOI: http://dx.doi.org/10.1145/311625.312130
44. Qingkun Su, Xue Bai, Hongbo Fu, Chiew-Lan Tai, and Jue Wang. 2018. Live Sketch: Video-driven Dynamic Deformation of Static Drawings. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI ’18). ACM, New York, NY, USA.
45. Meng Sun, Allan D Jepson, and Eugene Fiume. 2003. Video input driven animation (VIDA). IEEE.
46. Daniel S ` ykora, John Dingliana, and Steven Collins. 2009. Lazybrush: Flexible painting tool for hand-drawn cartoons. In Computer Graphics Forum, Vol. 28. Wiley Online Library, 599–608.
47. Jianchao Tan, Marek Dvoroˇ zˇ nák, Daniel S´ ykora, and Yotam Gingold. 2015. Decomposing Time-lapse Paintings into Layers. ACM Trans. Graph. 34, 4, Article
61 (July 2015), 10 pages. DOI: http://dx.doi.org/10.1145/2766960
48. James Tompkin, Fabrizio Pece, Kartic Subr, and Jan Kautz. 2011. Towards moment imagery: Automatic cinemagraphs. In Visual Media Production (CVMP), 2011 Conference for. IEEE, 87–93.
49. Nora S. Willett, Wilmot Li, Jovan Popovic, Floraine Berthouzoz, and Adam Finkelstein. 2017b. Secondary Motion for Performed 2D Animation. In Proceedings of the 30th Annual ACM Symposium on User Interface Software and Technology (UIST ’17). ACM, New York, NY, USA, 97–108. DOI: http://dx.doi.org/10.1145/3126594.3126641
50. Nora S. Willett, Wilmot Li, Jovan Popovic, and Adam Finkelstein. 2017a. Triggering Artwork Swaps for Live Animation. In Proceedings of the 30th Annual ACM Symposium on User Interface Software and Technology (UIST ’17). ACM, New York, NY, USA, 85–95. DOI: http://dx.doi.org/10.1145/3126594.3126596
51. Jun Xing, Rubaiat Habib Kazi, Tovi Grossman, Li-Yi Wei, Jos Stam, and George Fitzmaurice. 2016. Energy-Brushes: Interactive Tools for Illustrating Stylized Elemental Dynamics. In Proceedings of the 29th Annual Symposium on User Interface Software and Technology (UIST ’16). ACM, New York, NY, USA, 755–766. DOI: http://dx.doi.org/10.1145/2984511.2984585
52. Chao Yang, Xin Lu, Zhe Lin, Eli Shechtman, Oliver Wang, and Hao Li. 2017. High-resolution image inpainting using multi-scale neural patch synthesis. In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Vol. 1. 3.

发布了222 篇原创文章 · 获赞 152 · 访问量 24万+

猜你喜欢

转载自blog.csdn.net/keneyr/article/details/103049517