图像拼接 | 《Perception-based seam cutting for image stitching》 论文笔记

《Perception-based seam cutting for image stitching》

Signal, Image and Video Processing 2017



创新点

论文针对图像拼接中的 seam-cutting进行改进,用一句来描述就是:提出一种 基于感知的能量函数(perception-based energy function),找到感知上最佳的 seam-cutting。

实质上,是对能量函数(energy function)中的平滑项(smoothness term)做了修改

TODO:对数据项能不能有创新?!

具体创新剖析:
  • 使用sigmoid度量色差代替欧几里得度量色差,即融入感知性,其是非线性(nonlinearity)
  • 加入显著性权重(salient weight),其是非均匀性(nonuniformity)

更具体一点剖析:
首先使用SIFT[25]从输入的图像中检测并匹配特征,并使用 RANSAC[14] 来确定一个用于对齐图像的全局homography warp。然后对于重叠区域, 我们使用 Ostu算法[27] 来估计阈值 τ,使用显著性目标检测算法[38] 来计算像素显著权重(创新点)。最后使用 graph-cut optimization[3] 来获得 seam,并通过 gradient domain fusion[28]方法融合对齐的图像来创建全景图像。


写作技巧

整篇聚焦在改进 seam-cutting中能量函数的平滑项,提高图像拼接鲁棒性。


疑问

  • 如何证明引入感知项会提高 seam-cutting效果?
  • 感知项与人类感知怎么建立联系?
  • 为什么使用Ostu算法能确定阈值?


名词解释

  • Image alignment 可以翻译成图像对齐,也可以翻译成图像对准。
  • artifact 可以翻译成伪影
  • seam 可以翻译成接缝,也可以返程成缝
  • seam-cutting 可以翻译成切缝,也可以翻译成缝合线


摘要

由于不完美的图像拍摄,图像拼接在消费级摄影中仍然具有挑战性。最近的作品表明,切缝(seam-cutting) 方法可以有效地减轻局部错位(local misalignment)产生的伪影。通常,切缝方法是以能量最小化来描述的。然而,现有的方法很少对其能量函数考虑到人类感知(human perception),这有时会导致存在另一个感觉上比具有最小能量的感觉更好的接缝( 表示计算出最佳的缝合线不一定是视觉上最佳的缝合线)。在本文中,我们提出了一种新颖的基于感知(perception-base)的切缝方法,该方法将人类感知的非线性(nonlinearity)和非均匀性(nonuniformity)考虑进能量最小化中。我们的方法使用sigmoid度量来表征色彩歧视和显著性权重的感知,以模拟人眼倾向于更注意显著对象。另外,我们的方法可以很容易地集成到其他拼接方法中。代表性的实验证明了传统切缝方法的实质性改进。

1 引言

图像拼接主要有 alignment、composition和 blending组成。对于普通消费者拍摄的图像而言,composistion是生成无 artifacts全景图像的最关键的步骤。(这里可以将composition翻译成合成)

Seam-cutting 方法[1,11,18,20,37]是一种强大的合成方法,它打算在对齐的图像的重叠区域中找到无形的接缝。现有的方法通常用能量最小化来表达问题,并通过图切割优化将其最小化[2,3,19]。通常,对于对齐的图像的给定重叠区域,不同的能量函数对应于不同的接缝并且当然对应于不同的拼接结果(图1)。相反,为了获得合理的拼接效果,我们希望定义一种基于感知的能量函数,使感知最佳的接缝具有最小的能量。
图1 不同切缝方法的拼接结果比较。a 重叠区域。 b 对应于传统切缝方法的拼接结果。 c 拼接结果符合我们基于感知的切缝方法


近年来,许多努力已经致力于通过使用各种能量函数来惩罚光度差(不同切缝方法的拼接结果比较。 重叠区域。在文献[20]中使用欧几里德度量色差(Euclidean-metric color difference)来定义其能量函数中的平滑项(smoothness term),并且在[1]中考虑了梯度差(gradient difference)。Eden等人[11]提出了一个能量函数,允许大的运动和曝光差异,但必须要进行相机设置。Jia和Tang [18]将平滑度与梯度平滑度和梯度相似性联系起来,以减少沿着seam 的结构复杂性。Zhang等人[37]将能量函数中的对齐误差(alignment errors)和高斯度量色差(Gaussian-metric color difference)组合起来,以处理具有相似颜色的未对齐区域。 然而,现有的方法很少对能量函数中考虑人类的感知,这有时会导致存在另一个seam 感知上 比具有最小能量的seam感觉更好

Seam-cutting方法也被应用在图像对齐/配准上。Gao等[16]提出一种 seam-driven图像拼接框架,其从具有最小seam 的候选 homography中找到最佳的homography warp,而不是使用最小对齐误差的homography。Zhang和 Liu[36]将 homography和 content-preserving warps[24]相结合来局部性地对齐图像,其中seam cost被用作质量度量(quality metric)来怎样的homography warp利用生成令人满意的拼接。Lin等[23]提出了一种接缝引导的局部对齐(seam-guided local alignment),它通过根据它们到当前接缝的距离来自适应特征加权(adaptive feature weighting),迭代地改善 warping。

在本文中,我们提出一种新的基于感知的seam-cutting方法,其考虑将人类感知的非线性(nonlinearity)和非均匀性(nonuniformity)加入至最小化能量中。我们的方法由三个步骤组成。在第一阶段,我们计算给定重叠区域的 sigmoid metirc 色差作为平滑项来表征色彩差别的感知。然后,我们计算给定重叠区域的平均像素显著度作为显著权重,以模拟人眼倾向于更注意显著对象。最后,我们通过图切割(graph-cut)优化来最小化基于感知的能量函数,以获得接缝和相应的拼接结果。

实验证明了我们的的基于感知的 seam-cutting方法优于传统的 seam-cutting方法。用户研究表明,我们的拼接结果与人类感知更加一致。

本文主要的贡献总结如下:
  1. 我们提出一种基于感知的 seam-cutting方法,来创造几乎与感知一致的拼接结果。
  2. 我们的方法很容易整合到其它拼接方法中。

图2 传统和我们基于感知的切缝方法之间的过程比较。 a 重叠区域。 b 欧几里德度量色差。 c Sigmoid度量色差。 d 平均像素显著性。 e,f 相应的接缝。 g,h相应的拼接结果(color figure online)


2 方法

2.1 传统的seam-cutting方法

给定一对对齐图像,表示为I0和I1, 令P表示为两图的重叠区域,L={0,1}为标签集,其中"0"对应于I0,"1"对应于I1,然后,缝合线表示将标签 l p ∈ L赋值给每个像素p ∈ P。seam-cutting方法的目的是找到一个labeling l(即从P到L的映射)使得能量函数最小化:

式中N ⊂ P × P 是像素的邻域。 数据项(data term)D p(l p)表示将标签 l p赋值给像素p ∈ P的代价, 平滑项(smoothness term)S p, q (l p ,l q )表示将一对标签(l p,l q) 赋值给一对像素(p, q) ∈ N的代价。

数据项(data term)被定义为:

式中μ是一个非常大的惩罚,以避免错误标签,∂ I k ∩∂P是I k (k = 0, 1)和P 共同的边界(border),如图1(a)所示。事实上,D p(l p)将 seam的端点固定为两条彩色折线的相交点,如图2(e)。

平滑项(smoothness term)被定义为:

式中, I∗( · )表示欧几里得度量色差(the Euclidean-metric color difference)

能量函数(1)由 graph-cut 优化最小化,拼接结果如图1(b)所示。明显,能量函数的定义在 seam-cutting中占有重要地位。


2.2 基于感知的能量函数

在实验中,也许存在另一条seam l†,其感知上比 最小化能量函数(公式(1))的 seam l∗更好。因此,我们希望定义一个基于感知的能量函数,使得感知上最好的 seam具有最小能量(即使得最小能量的 seam也是感知上最好的 seam)。

2.2.1 Sigmoid 度量

图3 展示了toy 示例,其中 l∗并不是感知上最佳的。事实上,图(b)中的 seam l∗ 跨过了局部未对齐区域(图(a)中的蓝色线),因为欧几里得度量色差没有给出足够大的惩罚(penalty)。正相反,图(d)中的 seam l†避免了局部误对齐区域(图c中红色线),因为sigmoid 度量色差成功地将红色线从对齐区域中区分出来。

图3 Toy 示例。 a,c 欧几里德度量和 sigmoid 度量色差的可视化。 b,d相应的接缝

注:图3中,(a)(c)分别是欧几里得度量色差和 sigmoid度量色差,明显(c)的色差更大,有助于区分 misalignment area.

特别是,颜色的感知是非线性的,因为它具有颜色辨别阈值,这意味着即使人眼不同,人眼也不能区分某些颜色。令τ 表示阈值,颜色辨别的感知可以表征为:
  • 如果 I∗(·) < τ, 色差是不可见的
  • 如果 I∗(·) τ,辨别的敏感度快速上升
  • 如果 if I∗(·) > τ,色差是可见的

我们想定义一个质量度量来衡量色差的可见度(visibility),如不可见项的代价接近于0,同时,可见项的代价接近于1。幸运的是,sigmoid函数是一个适用于我们这种需求的质量度量:


现在,我们解释如何确定参数 τ 和 κ。简单来说,给定对齐图像的重叠区域P,阈值 τ 在利用色差大致地将P划分到对齐区域和误对齐区域的步骤中起到很大重要,这与确定一个阈值将灰度图像划分成背景区域和前景区域十分相似。因此,我们采用非常著名的 Ostu[27]算法(又称为最大类间方差法/ 大津OSTU算法/ 自适应阈值算法)来确定最大类间方差(maximum between-class)的合适 τ 。另一方面,κ表示颜色辨别的灵敏度在 κ附近上升的速度有多快。一般来说,κ = 1/ ε 将具有很好的实际表现性能,其中 ε 是使用在 Ostu算法bin直方图的宽度,该值在我们的实验中被设为0.06。

平滑项被修改为:

式中, I†(·) 表示 sigmoid度量色差(sigmoid-metric color difference 。如图2(c)所示,I†(·) 增强了误对齐区域(misalignment area),这使得成功避免了穿过误对齐区域,如图3(d)所示。


2.2.2 显著性权重

图4 介绍了另一个 toy 示例,其中 l∗ 并不是感知上最佳的。事实上,(b)和(d)所示的 seam l∗ 和 l† 都会穿过局部误对齐(misalignment)区域。尽管 l† 的能量更大,但就人类感知而言,即感知上(perceptually), l† 比 l∗更好,因为伪影(artifact)出现的位置不如 l∗显著。

图4 Toy 示例。sigmoid度量色差的可视化。 c平均像素显著性。 b,d相应的接缝

特别是,图像内容的感知是非均匀的(nonuniform),这意味着人眼倾向于更加关注显著的对象(salient objects)。因此,显著区域的伪影比非显著区域的伪影更显著(remarkable)。

为了从这些观察中受益,我们定义了显著权重(saliency weight):

式中 ω(·)表示 P的平均像素显著性(如图2(d))。我们将 W p, q 归一化至 [1,2]范围,为了避免过度惩罚(over-penalizing)。因为最终的全景图通常在消费级摄影中被剪切成矩形状, 所以如果p 或者 q位于画布(canvas)和 P的共同边界 ∂P(如图2(a)中的绿色),我们可以选择将 W p, q 设置为0。

基于感知的能量函数定义为:

式中,W p, q 根据ω(·) 增加(rises)了S˜ p, q (l p ,l q )的惩罚。图2(f) 显示了 seam 的端点比图2(e)上的seam 在∂P上 具有更多的自由度。


2.3 Seam-cutting框架

算法1总结了我们 seam-cutting 框架:

算法1:基于感知的 seam-cutting 框架
输入:对齐图像I0 和 I1的重叠区域 P
输出:拼接结果
  1. 根据公式(4) 计算 I∗(P)——欧几里得度量色差
  2. 根据Ostu算法[27] 计算公式(5) 中的 τ
  3. 根据公式(7) 计算I†(P) ,根据公式(6) 计算S˜p,q
  4. 根据显著性目标检测[38] 计算ω(P)和 公式(8)中的 Wp,q
  5. 根据公式(2) 计算 Dp(P)
  6. 根据graph-cut 优化[3]来最小化公式(9)中的 E˜(l),并通过梯度域融合法将 I0 和 I1融合。




3 实验

在我们的实验中,我们首先使用SIFT[25]从输入的图像中检测并匹配特征,并使用 RANSAC[14] 来确定一个用于对齐图像的全局homography warp。然后对于重叠区域,我们使用 Ostu算法[27] 来估计阈值 τ,使用显著性目标检测算法[38] 来计算像素显著权重。最后使用 graph-cut optimization[3] 来获得 seam,并通过 gradient domain fusion[28]方法融合对齐的图像来创建全景图像。

我们将本文算法与传统的 seam-cutting方法和其他成熟的拼接工具(如AutoStitch[4,5]和 微软ICE)进行比较。为了公正,传统的拼接结果与我们基于感知的seam-cutting方法都是基于相同的 homography对齐。比较是在我们自己的数据集以及公共可用数据集上完成的,包括Parallax[36]和SEAGULL[23]。

图5显示了文献[36] 中的说明示例。输入带有视差的图像,这可以从花盆位置看出。AutoStitch的结果带有重像伪影(ghosting artifacts),微软 ICE 和传统的 seam-cutting 方法也不能产生令人满意的结果。红色矩形框显示的是视觉伪影。我们的方法产生了可以与Parallax和SEAGULL方法相媲美的无伪影结果。

图6显示了文献[36]中另一组示例。输入带有视差的图像,其是拍摄一组飞机模型的图像。AutoStitch的结果带有重像伪影(ghosting artifacts),微软 ICE 和传统的 seam-cutting 方法具有结构不一致问题。红色矩形框显示的是视觉伪影。我们的方法产生了可以与Parallax和SEAGULL方法相媲美的无伪影结果。

在图5和图6中,输入图像和第四组拼接结果来自 Parallax ,第5组拼接结果来自 SEAGULL。值得注意的是,即使没有像 Parallax和 SEAGULL那样的高级的局部对齐(advanced local alignment),全局单应对齐和我们基于感知的seam-cutting 的组合仍然可以产生较好的缝合结果。

图5 不同拼接方法之间的比较。a 输入图像。 b AutoStitch。 c 微软ICE。 d 传统的 seam-cutting 方法。 e Parallax。f SEAGULL。 g 我们的方法


图6 不同拼接方法之间的比较。a 输入图像。 b AutoStitch。 c 微软ICE。 d 传统的 seam-cutting 方法。 e Parallax。f SEAGULL。 g 我们的方法



3.1 量化评估

在合成(composition)阶段,可见的接缝可能会产生结构不一致(structure inconsistency)的视觉伪影[33](图5,6)。我们利用SEAGULL[23]中的评估策略来定量测量接缝的性能。具体来说,针对缝合接缝上的每个像素pi,我们提取以pi为中心的 m×m 局部 patch(以像素为单位)。然后,我们计算目标图像中的局部区块与参考图像中的局部区块之间的零归一化互相关分数(ZNCC,zero-normalized cross-correlation score)。 最后,沿着接缝,我们将质量测量(quality measure)定义为
式中,N是 seam上像素的总数。

现在我们使用质量测量来定量地比较传统的和基于感知的切缝方法。我们用20组图像测试了这两种方法,其中包括来自我们自己数据集的8组图像和来自Parallax [36]和SEAGULL [23]的公开可用数据集的12组图像。表1显示了传统方法( '基础')和我们的方法( '我们')之间的比较结果。 我们还比较了仅使用sigmoid度量(' Sigmoid',在方程9中设置Wp,q:= 1)的切缝方法的结果。较小的值通常表示感觉上更好的缝合缝和更合理的缝合结果。在表1中,每列中的粗体值表示它是三个接缝中最小的。

表1 传统 seam-cutting方法的 seam质量,其中使用 sigmoid 和本文的方法。

在大多数情况下,我们的方法的接缝质量比仅使用 sigmoid 度量标准的接缝质量更好,并且两者都优于传统方法。 在一些示例中(即02,03,09,19),仅使用S形度量的方法的接缝质量稍好于我们,但拼接结果全部看似合理。我们展示了带有显著改善的缝合结果(01,02,12,14,19)的对比,如图7 所示。所有20组实例都在补充材料中提供,包括中间接缝结果和最终缝合三种方法的结果。

图7 ‘Base’ 和 'Ours'的对比。上面:‘Base’,下面:'Ours'


我们通过实验发现质量度量在 m(patch的大小)的合理范围内是稳定的(如图8所示)。这里我们在实验中将 m 设置为15。

图8 不同 patch尺寸的 seam质量。 a-d 对应于表1中的 01,07,12和 20。


3.2 主观评估

为了调查我们提出的方法与人类感知更一致,我们对用户进行了调查,来比较传统方法和我们基于感知的 seam-cutting方法。我们邀请了15个参与人员对 15组未标记的拼接结果进行打分(从3个选项做出选择:(1)A 优于 B,(2) B 优于 A,(3)A 和 B一致)。图9 显示了结果,其证明了我们的拼接结果最受用户的喜欢。所有15组示例都在附件材料中提供。


3.3 集成性(Integration)

除了单应性对齐(homography alignment)之外,我们提出的方法可以轻松地与其他改进的对齐(advance alignment)方法集成。图10显示了一个来自视差[36]的例子。鉴于APAP对齐图像的重叠区域[34],我们基于感知的切缝方法成功生成了无伪影的结果,而传统的切割方法失败。


图10 与APAP集成。a 'Base',b 'Ours'。红色圆形表示存在伪影。


4 总结

在本文中,我们提出了一种基于感知的切缝(seam-cutting)方法来处理消费者级别摄影中的图像拼接挑战。实验表明我们的方法超越了传统的切缝方法。包括定量(quantitative)和主观评估(subjective assessment)在内的全面评估表明,我们的结果与人类感知更加一致。将来,我们计划在seam-driven 框架中调整我们的方法来处理图像对齐。

注:总结中埋下的伏笔“将来,我们计划在seam-driven 框架中调整我们的方法来处理图像对齐。”,所以就有了《Coarse-to-fine Seam Estimation for Image Stitching》论文的诞生。


参考文献

1. Agarwala, A., Dontcheva, M., Agrawala, M., Drucker, S., Colburn, A., Curless, B., Salesin, D., Cohen, M.: Interactive digital photomontage. ACM Trans. Graph. 23(3), 294–302 (2004)
2. Boykov, Y., Kolmogorov, V.: An experimental comparison of mincut/max-flow algorithms for energy minimization in vision. IEEE Trans. Pattern Anal. Mach. Intell. 26(9), 1124–1137 (2004)
3. Boykov, Y., Veksler, O., Zabih, R.: Fast approximate energy minimization via graph cuts. IEEE Trans. Pattern Anal. Mach. Intell. 23(11), 1222–1239 (2001)
4. Brown, M., Lowe, D.G.: Automatic panoramic image stitching using invariant features. Int. J. Comput. Vis. 74(1), 59–73 (2007)
5. Brown, M., Lowe, D.G., et al.: Recognising panoramas. In: ICCV, vol. 3, p. 1218 (2003)
6. Burt, P.J., Adelson, E.H.: A multiresolution spline with application to image mosaics. ACM Trans. Graph. 2(4), 217–236 (1983)
7. Chang, C.H., Sato, Y., Chuang, Y.Y.: Shape-preserving halfprojective warps for image stitching. In: Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp. 3254–3261 (2014)
8. Chen, Y.S., Chuang, Y.Y.: Natural image stitching with the global similarity prior. In: Proceedings of 14th European Conference on Computer Vision, pp. 186–201 (2016)
9. Davis, J.: Mosaics of scenes with moving objects. In: Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,
pp. 354–360 (1998)
10. Duplaquet, M.L.: Building large imagemosaics with invisible seam lines. In: Aerospace/Defense Sensing and Controls, pp. 369–377.
International Society for Optics and Photonics Proc. SPIE 3387, Visual Information Processing VII (1998)
11. Eden, A., Uyttendaele, M., Szeliski, R.: Seamless image stitching of scenes with large motions and exposure differences. In: Proceedings of IEEE Conference on Computer Vision Pattern Recognition, vol. 2, pp. 2498–2505 (2006)
12. Efros, A.A., Freeman, W.T.: Image quilting for texture synthesis and transfer. In: Proceedings of the 28th Annual Conference on Computer Graphics and Interactive Techniques, SIGGRAPH’01,
pp. 341–346. ACM (2001)
13. Fang, X., Zhu, J., Luo, B.: Image mosaic with relaxed motion. SIViP 6(4), 647–667 (2012)
14. Fischler, M.A., Bolles, R.C.: Random sample consensus: a paradigm for model fitting with applications to image analysis and
automated cartography. Commun. ACM 24(6), 381–395 (1981)
15. Gao, J., Kim, S.J., Brown, M.S.: Constructing image panoramas using dual-homography warping. In: Proceedings of IEEE Conference on Computer Vision Pattern Recognition, pp. 49–56 (2011)
16. Gao, J., Li, Y., Chin, T.J., Brown, M.S.: Seam-driven image stitching. In: Eurographics, pp. 45–48 (2013)
17. Gracias, N., Mahoor, M., Negahdaripour, S., Gleason, A.: Fast image blending using watersheds and graph cuts. Image Vis. Comput. 27(5), 597–607 (2009)
18. Jia, J., Tang, C.K.: Image stitching using structure deformation. IEEE Trans. Pattern Anal. Mach. Intell. 30(4), 617–631 (2008)
19. Kolmogorov, V., Zabin, R.: What energy functions can be minimized via graph cuts? IEEE Trans. Pattern Anal. Mach. Intell. 26(2), 147–159 (2004)
20. Kwatra, V., Schödl, A., Essa, I., Turk, G., Bobick, A.: Graphcut textures: image and video synthesis using graph cuts. ACM Trans. Graph. 22(3), 277–286 (2003)
21. Levin, A., Zomet, A., Peleg, S., Weiss, Y.: Seamless image stitching in the gradient domain. In: Proceedings of the 8th European Conference on Computer Vision, pp. 377–389 (2004)
22. Lin, C.C., Pankanti, S.U., Ramamurthy, K.N., Aravkin, A.Y.: Adaptive as-natural-as-possible image stitching. In: Proceedings
of IEEE Conference on Computer Vision and Pattern Recognition, pp. 1155–1163 (2015)
23. Lin, K., Jiang, N., Cheong, L.F., Do, M., Lu, J.: Seagull: seamguided local alignment for parallax-tolerant image stitching. In: Proceedings of 14th European Conference on Computer Vision, pp. 370–385 (2016)
24. Liu, F., Gleicher, M., Jin, H., Agarwala, A.: Content-preserving warps for 3d video stabilization. ACM Trans. Graph. (TOG) 28(3), 44 (2009)
25. Lowe, D.G.: Distinctive image features from scale-invariant keypoints. Int. J. Comput. Vis. 60(2), 91–110 (2004)
26. Mills, A., Dudek, G.: Image stitching with dynamic elements. Image Vis. Comput. 27(10), 1593–1602 (2009)
27. Otsu, N.: A threshold selection method from gray-level histograms. Automatica 11(285–296), 23–27 (1975)
28. Pérez, P., Gangnet, M., Blake, A.: Poisson image editing. ACM Trans. Graph. 22(3), 313–318 (2003)
29. Rzhanov, Y.: Photo-mosaicing of images of pipe inner surface. Signal Image Video Process 7(5), 865–871 (2013)
30. Szeliski, R.: Image alignment and stitching: A tutorial. Technical Report MSR-TR-2004-92, Microsoft Research (2004)
31. Szeliski, R., Shum, H.Y.: Creating full view panoramic image mosaics and environment maps. In: Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques, SIGGRAPH’97, pp. 251–258. ACM Press (1997)
32. Xu, Z.: Consistent image alignment for video mosaicing. SIViP 7(1), 129–135 (2013)
33. Yang, L., Tan, Z., Huang, Z., Cheung, G.: A content-aware metric for stitched panoramic image quality assessment. In: The IEEE International Conference on Computer Vision (ICCV) (2017)
34. Zaragoza, J., Chin, T.J., Tran, Q.H., Brown, M.S., Suter, D.: As-projective-as-possible image stitching with moving dlt. IEEE Trans. Pattern Anal. Mach. Intell. 7(36), 1285–1298 (2014)
35. Zeng, L., Zhang, W., Zhang, S., Wang, D.: Video image mosaic implement based on planar-mirror-based catadioptric system. SIViP 8(6), 1007–1014 (2014)
36. Zhang, F., Liu, F.: Parallax-tolerant image stitching. In: Proceedings of IEEE Conference on Computer Vision Pattern Recognition, pp. 3262–3269 (2014)
37. Zhang, G., He, Y., Chen, W., Jia, J., Bao, H.: Multi-viewpoint panorama construction with wide-baseline images. IEEE Trans. Image Process. 25(7), 3099–3111 (2016)
38. Zhang, J., Sclaroff, S., Lin, Z., Shen, X., Price, B., Mech, R.: Minimum barrier salient object detection at 80 fps. In: Proceedings of IEEE International Conference on Computer Vision, pp. 1404– 1412 (2015)

猜你喜欢

转载自blog.csdn.net/amusi1994/article/details/80523130