120 法[5]。这个数据库提供了102 对图像,每一对图像都包含了一个或是几个相似的物体,并且 这些图像的背景都不同。这些图像涵盖了人、花、车、船和不同的动物等。 3.2 精确度和召回率 本文通过定量的比较方法来计算提取的协同显著图和人工标注之间的差别,并以此来评 估本文所提出的方法的质量。本文算法的结果和人工标注的比较基于3 种评估度量,分别是 125 精确度(P)、召回率(R)和F-measure(F)。精确度定义为在算法提取的区域中正确的 协同显著性区域所占的比例,召回率被定义为算法提取的正确的协同显著性区域和人工标注 的整个显著性区域的比值。本文用Sg 表示人工标注划分出的协同显著性区域, d S 表示算 法提取出的协同显著性区域。这样,精确度、召回率和F-measure 的定义如下: Σ Σ ∩ = d g d S S S P (4) Σ Σ ∩ = g g d S S S 130 R (5) F-measure 是由精确度和召回率计算得到的[10]。 ecision call F ecision call r Pr Re (1 ) Pr Re 2 2 × + + × = γ γ (6) 这其中γ 2 是一个非负常量,在本文中γ 2 =0.3。 理论上,召回率与精确度此消彼长,因此同时评估这两个量是很重要的。这里,本文将 135 采用两种不同的评估方法。这两种方法为了获得精确度和召回率,都需要依据阈值来对结果 进行划分,高于阈值以上的部分将作为协同显著区域,而低于阈值的部分则作为背景。在第 一种方法里,本文将把0 到255 之间的每一个数作为一个阈值去进行计算,并根据计算结果 绘制P-R 曲线图。 3.3 定量分析 140 图1 给出了本文的方法同近年的一些显著图的曲线的比较结果,这些方法中包括 Spectral Residual(SR)[9]、frequency-tuned 显著性(FT)[10]和基于全局比较的方法(RC) [2]。除此之外,图1 中还包括了针对多幅图像的协同显著性检测的曲线结果。这其中有一对 图像的协同显著性算法(CSM)[5],它取得了较好的协同显著性检测结果。图1 提供了一种 可靠的比较标准,可以客观的反映不同方法的优劣。在图1 中,可以看到本文的方法在大多 145 数区间上都有更高的P-R 曲线,即本文的实验结果要优于参加比较的其它方法。 图1 测试得到的P-R 曲线图。本文的方法(AWS)同CSM、RC、CA、SR 和FT 比较。 Fig.1 Precision-recall curves for naive threshold of saliency maps. Our method (AWS) is compared with CSM, RC , CA , SR and FT. 150 在另一种评价方法里,自适应阈值[9]用于划分二值显著性区域[10]。自适应阈值被定义为整张 图像的显著性值的平均值的二倍。其计算公式如下: ΣΣ × = = = W x H y S x y W H T 1 1 2 ( , ) α (7) 这其中W 和H 分别代表了显著图S 的宽度和高度。图2 展示出了比较结果,可以看到本文 155 的算法优于其他算法。相较CSM,本文在精确度、召回率和F-measure 上分别提高了1.84%、 0.95%和1.55%。 图2 本文的方法(AWS)同CSM、RC、CA、SR 和FT 在自适应阈值下,精确度、召回率和F-measure 值 的直方图比较。 160 Fig.2 The precision/recall bars using different saliency maps for adaptive threshold on image dataset[5]. Our method (AWS) is compared with CSM, RC, CA, SR and FT. 3.4 定性比较 本节将首先阐明固定每一个参加融合的显著图的权值的做法是不合理的,然后将给出本 165 文的实验结果同CSM 的视觉对比。 从图3 可以看到,对于第一对图像来说,显著图FT(第二行)的提取效果较好,但是 CC(第三行)的效果较差。图3 的第四行,是使用固定的权值融合五幅显著图而得到的结 果。最后一行,所提出的自适应权值方法得到的结果,可以看到本文的结果优于固定权值得 到的结果。这表明对于不同的输入图像,每一个参加融合过程的显著图应该被赋予不同的权 170 值。因此,本文所提出的自适应权值算法更有效的解决这个问题。 图3 本文方法同其他方法的实验结果的比较。第一行是输入图像。第二行是frequency-tuned 显著图的检测 结果[10]。第3 行是多幅显著图中的一种,它在本文中被称为CC[5]。第4 行是CSM 的检测结果。最后一行 175 是本文的检测结果。 Fig.3 Comparison between our method with the others.The first row is the original image. The second row is the detection result of FT[10].The third row is one multi-image saliency map. The result of CSM is shown in the fourth row[5]. The last row is our method. 180 图4 给出了本文的实验结果和CSM 的结果的视觉对比。其中,第一行是输入图像,第 二行和第四行是CSM 的检测结果,第三行和最后一行是本文的一致性检测结果。最后两行 是原图像中显著性值高于阈值的部分,这里本文将阈值简单的设为60。从图4 的对比结果 中,可以看到本文的实验结果优于CSM 算法结果。譬如第一对图片中的第一张图像,本文 的方法可以检测出整个石头,而CSM 方法只能检测出石头的一部分;再譬如最后一对图像, 185 尽管相较CSM 本文检测出了部分背景,但是本文能够得到更加完整的显著性区域。 图4 部分输入图像的实验结果。 Fig.4 Experimental results for some image pairs. 190 4 结论 本文提出的协同显著性检测算法,可以为参加融合的单显著图或者协同显著检测结果赋 予自适应权值。所提的方法依靠一致性能量值来自动计算权值,因此能够适用于几乎所有的 显著性检测方法。并且,本文得到的实验结果平均果要优于每一个参加融合过程的显著性检 195 测方法。P-R 曲线表明在标准数据库上本文的显著性检测结果的表现最好。在未来的工作中, 本文将扩展这种自适应加权方法,使其能够应用在视频领域。 [参考文献] (References) [1] L. Itti, C. Koch, and E. Niebur:A model of saliency-based visual attention for rapid scene analysis. IEEE Trans. Pattern Anal. Mach.Intell., vol. 20, no. 11, pp. 1254-1259, 1998. 200 [2] Cheng, M., Zhang, G., J.Mitra, N., Huang, X., Hu, S.M.: Global contrast based salient region detection. In: IEEE Conference on Computer Vision and Pattern Recognition. (2011) 409-416 [3] Chang, K.Y., Liu, T.L., Lai, S.H.: From co-saliency to co-segmentation: An efficientand fully unsupervised energy minimization model. In: IEEE Conference on Computer Vision and Pattern Recognition. (2011) 2129-2136 [4] Chen, H.T.: Preattentive co-saliency detection. In: ICIP. (2010) 1117-1120 205 [5] H. Li and K. Ngan:A co-saliency model of image pairs.IEEE Trans.Image Process., vol. 20, no. 12, pp. 3365-3375, 2011. [6] Rother, C., Kolmogorov, V., Minka, T., Blake, A.: Cosegmentation of image pairs by histogram matching: Incorporating a global constraint into mrfs. In: IEEE Conference on Computer Vision and Pattern Recognition. (2006) 993-1000 210 [7] Mukherjee, L., Singh, V., R.Dyer, C.: Half-integrality based algorithms for cosegmentation of images. In: IEEE Conference on Computer Vision and Pattern Recognition. (2009) 2028-2035 [8] S.Hochbaum, D., Singh, V.: An efficient algorithm for co-segmentation. In: IEEE International Conference on Computer Vision.(2009) 269-276 [9] Hou, X., Zhang, L.: Saliency detection: A spectral residual approach. In: IEEE Conference on Computer Vision and 215 Pattern Recognition.(2007) [10] Achanta, R., Hemami, S., Estrada, F., Ssstrunk, S.: Frequency-tuned salient region detection. In: IEEE Conference on Computer Vision and Pattern Recognition. (2009) 1597-1604 [11] Li, P., Liu, H., Jefirey, Yu, X., He, J., Du, X.: Fast single-pair simrank computation.In: In Proceedings of the SIAM International Conference on Data Mining. (2010) 1238–1241 220 学术论文网Tag:代写硕士论文 代写论文 代写MBA论文 代写博士论文 |