一种立体图像视觉显著图提取方法

出售状态:已下证
专 利 号 :已交易,保密
专利类型:发明专利
专利分类:软件开发
出售价格:
直 接 购 买 联 系 客 服

详细介绍


技术领域

本发明涉及一种图像信号的处理方法,尤其是涉及一种立体图像视觉显著图提取方法。


背景技术

在人类视觉接收与信息处理中,由于大脑资源有限以及外界环境信息重要性区别,因此在处理过程中人脑对外界环境信息并不是一视同仁的,而是表现出选择特征。人们在观看图像或者视频片段时注意力并非均匀分布到图像的每个区域,而是对某些显著区域关注度更高。如何将视频中视觉注意度高的显著区域检测并提取出来是计算机视觉以及基于内容的视频检索领域的一个重要的研究内容。

然而,人眼感知立体图像产生立体视觉的过程并不是简单的左右视点图像叠加的过程,因此,立体视觉特征(例如,三维视觉注意力)并不是平面视觉特性的简单拓展,如何从立体图像中有效地提取出立体视觉特征、如何使得提取的立体视觉特征符合人眼三维观看行为,都是在对立体图像进行视觉显著图提取过程中需要研究解决的问题。


发明内容

本发明所要解决的技术问题是提供一种立体图像视觉显著图提取方法,其符合显著语义特征,且具有较强的提取稳定性和较高的提取准确性。

本发明解决上述技术问题所采用的技术方案为:一种立体图像视觉显著图提取方法,其特征在于包括训练阶段和测试阶段两个过程,具体步骤如下:

①选取N副各不相同而尺寸大小一致的立体图像以及每幅立体图像对应的右视差图像,构成训练图像集,记为{Li,Ri,di|1≤i≤N},其中,N≥1,Li表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像的左视点图像,Ri表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像的右视点图像,di表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像对应的右视差图像;

②计算{Li,Ri,di|1≤i≤N}中的每幅立体图像对应的右视差图像中的所有像素点的视差均值、视差方差和视差范围,将di中的所有像素点的视差均值、视差方差和视差范围对应记为μi、δi和χi;然后将{Li,Ri,di|1≤i≤N}中的每幅立体图像对应的右视差图像中的所有像素点的视差均值、视差方差和视差范围按顺序进行排列构成每幅立体图像的用于反映视觉舒适度的特征矢量,将第i幅立体图像的用于反映视觉舒适度的特征矢量记为Xi,Xi=[μiii],其中,此处符号“[]”为矢量表示符号,Xi的维数为3;

③采用支持向量回归,对{Li,Ri,di|1≤i≤N}中的所有立体图像的特征矢量进行训练,并使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,得到最优的权重矢量wopt和最优的偏置项bopt,然后利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为f(Xinp),其中,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矢量,表示支持向量回归训练模型的输入矢量Xinp的线性函数;

④将待测试的立体图像的左视点图像和右视点图像对应记为{IL(x,y)}和{IR(x,y)},将待测试的立体图像对应的右视差图像记为{dR(x,y)},其中,此处(x,y)表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}中的像素点的坐标位置,1≤x≤W,1≤y≤H,此处W表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的宽度,H表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的视差值;

⑤采用基于图论的视觉显著性模型提取出{IR(x,y)}的二维显著图,记为{S2D(x,y)},其中,S2D(x,y)表示{S2D(x,y)}中坐标位置为(x,y)的像素点的像素值;

⑥采用超像素分割技术将{IR(x,y)}分割成M个互不重叠的区域,然后将{IR(x,y)}重新表示为M个区域的集合,记为{SPh},再根据{SPh}中的不同区域之间的视差相似性和空间相似性,计算{IR(x,y)}的深度显著图,记为{SDP(x,y)},其中,M≥1,SPh表示{SPh}中的第h个区域,1≤h≤M,SDP(x,y)表示{SDP(x,y)}中坐标位置为(x,y)的像素点的像素值;

⑦根据利用训练得到的最优的权重矢量wopt和最优的偏置项bopt构造的支持向量回归训练模型f(Xinp),计算{IR(x,y)}的视觉舒适度显著图,记为{SVC(x,y)},其中,SVC(x,y)表示{SVC(x,y)}中坐标位置为(x,y)的像素点的像素值;

⑧对{IR(x,y)}的二维显著图{S2D(x,y)}、{IR(x,y)}的深度显著图{SDP(x,y)}及{IR(x,y)}的视觉舒适度显著图{SVC(x,y)}进行融合,得到{IR(x,y)}的最终的三维视觉显著图,记为{S3D(x,y)},将{S3D(x,y)}中坐标位置为(x,y)的像素点的像素值记为S3D(x,y),S3D(x,y)=S2D(x,y)×SDP(x,y)×SVC(x,y)。

所述的步骤②中di中的所有像素点的视差均值、视差方差和视差范围的获取过程为:

②-1、计算di中的所有像素点的视差均值,记为μi其中,1≤x≤W,1≤y≤H,此处W表示di的宽度,H表示di的高度,di(x,y)表示di中坐标位置为(x,y)的像素点的视差值;

②-2、计算di中的所有像素点的视差方差,记为δi

②-3、计算di中的所有像素点的视差范围,记为χi,χi=dmax-dmin,其中,dmax表示di中的所有像素点的视差值按从大到小的顺序排序后,前1%的视差值对应的所有像素点的视差均值;dmin表示di中的所有像素点的视差值按从大到小的顺序排序后,后1%的视差值对应的所有像素点的视差均值。

所述的步骤③的具体过程为:

③-1、将{Li,Ri,di|1≤i≤N}中的所有立体图像的特征矢量和平均主观评分均值构成训练样本数据集合,记为ΩN,{Xi,MOSi}∈ΩN,其中,MOSi表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像的平均主观评分均值,MOSi∈[1,5],1≤i≤N;

③-2、构造ΩN中的每个特征矢量的回归函数,将Xi的回归函数记为f(Xi),其中,f()为函数表示形式,w为权重矢量,wT为w的转置矢量,b为偏置项,表示Xi的线性函数,D(Xi,Xl')为支持向量回归中的核函数,Xl'表示ΩN中的第l'个特征矢量,1≤l'≤N,γ为核参数,exp()表示以自然基数e为底的指数函数,符号“|| ||”为求欧式距离符号;

③-3、采用支持向量回归作为机器学习的方法,对ΩN中的所有特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,得到最优的权重矢量wopt和最优的偏置项bopt,将最优的权重矢量wopt和最优的偏置项bopt的组合记为(wopt,bopt),然后利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为f(Xinp),其中,Ψ表示对ΩN中的所有特征矢量进行训练的所有的权重矢量和偏置项的组合的集合,表示取使得的值最小的w和b的值,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矢量,表示支持向量回归训练模型的输入矢量Xinp的线性函数。

所述的步骤③-2中取核参数γ=54。

所述的步骤⑥中{IR(x,y)}的深度显著图{SDP(x,y)}的获取过程为:

⑥-1、计算{SPh}中的不同区域之间的视差相似性,将{SPh}中的第p个区域与第q个区域之间的视差相似性记为Simd(SPp,SPq),Simd(SPp,SPq)=|Σ(x,y)∈SPpdR(x,y)NSPp-Σ(x,y)∈SPqdR(x,y)NSPq|,其中,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,符号“| |”为取绝对值符号,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的视差值,表示SPp中包含的像素点的总个数,表示SPq中包含的像素点的总个数;

⑥-2、计算{SPh}中的不同区域之间的空间相似性,将{SPh}中的第p个区域与第q个区域之间的空间相似性记为Sims(SPp,SPq),其中,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,表示SPp中的中心像素点的坐标位置,表示SPq中的中心像素点的坐标位置,符号“|| ||”为求欧式距离符号,max()为取最大值函数,exp()表示以自然基数e为底的指数函数,λ为控制参数;

⑥-3、根据{SPh}中的不同区域之间的视差相似性和空间相似性,计算{SPh}中的每个区域的深度显著值,将{SPh}中的第h个区域SPh的深度显著值记为DPSPh=Σq=1M(Simd(SPh,SPq)×Sims(SPh,SPq)),其中,1≤h≤M,1≤q≤M,h≠q,Simd(SPh,SPq)表示SPh与SPq之间的视差相似性,Sims(SPh,SPq)表示SPh与SPq之间的空间相似性;

⑥-4、将{SPh}中的每个区域的深度显著值作为对应区域中的所有像素点的显著值,从而得到{IR(x,y)}的深度显著图,记为{SDP(x,y)},其中,SDP(x,y)表示{SDP(x,y)}中坐标位置为(x,y)的像素点的像素值。

所述的步骤⑦的具体过程为:

⑦-1、计算{SPh}中的每个区域的第一视差对比度,将{SPh}中的第h个区域SPh的第一视差对比度记为其中,表示{dR(x,y)}中与SPh对应的区域中的所有像素点的视差均值,dh,max表示{dR(x,y)}中与SPh对应的区域中的所有像素点的视差值按从大到小的顺序排序后,前1%的视差值对应的所有像素点的视差均值;dh,min表示{dR(x,y)}中与SPh对应的区域中的所有像素点的视差值按从大到小的顺序排序后,后1%的视差值对应的所有像素点的视差均值;

⑦-2、计算{SPh}中的每个区域的第二视差对比度,将{SPh}中的第h个区域SPh的第二视差对比度记为S2SPh=dh,max-d‾hdh,max-dh,min;

⑦-3、计算{SPh}中的每个区域的视觉舒适度预测值,将{SPh}中的第h个区域SPh的视觉舒适度预测值记为Qh,pred其中,为采用与步骤②相同的方法计算得到的SPh的用于反映视觉舒适度的特征矢量,的维数为3,表示的线性函数;

⑦-4、根据{SPh}中的每个区域的第一视差对比度、第二视差对比度和视觉舒适度预测值,计算{SPh}中的每个区域的视觉舒适度显著值,将{SPh}中的第h个区域SPh的视觉舒适度显著值记为其中,β为控制参数,T为阈值;

⑦-5、将{SPh}中的每个区域的视觉舒适度显著值作为对应区域中的所有像素点的显著值,从而得到{IR(x,y)}的视觉舒适度显著图,记为{SVC(x,y)},其中,SVC(x,y)表示{SVC(x,y)}中坐标位置为(x,y)的像素点的像素值。

与现有技术相比,本发明的优点在于:

1)本发明方法同时考虑立体图像的二维显著图、深度显著图和视觉舒适度显著图,并最终融合得到立体图像的三维视觉显著图,具有较高的提取准确性和较强的稳定性,并能够较好地反映各种因素的显著变化情况,符合显著语义特征。

2)本发明方法考虑到视觉舒适度对三维视觉显著图的影响,通过训练构建测试立体图像的右视点图像中的每个区域的用于反映视觉舒适度的特征矢量与视觉舒适度预测值的关系模型,然后利用关系模型来预测每个区域的视觉舒适度预测值,最后结合各个区域的第一视差对比度和第二视差对比度,得到立体图像的视觉舒适度显著图,从而有效地提高了视觉舒适度的预测准确性。


附图说明

图1为本发明方法的总体实现框图;

图2a为“Image1”的右视点图像;

图2b为“Image1”的右视点图像的真实眼动图;

图2c为“Image1”的右视点图像的二维显著图;

图2d为“Image1”的右视点图像的深度显著图;

图2e为“Image1”的右视点图像的视觉舒适度显著图;

图2f为“Image1”的右视点图像的三维视觉显著图;

图3a为“Image2”的右视点图像;

图3b为“Image2”的右视点图像的真实眼动图;

图3c为“Image2”的右视点图像的二维显著图;

图3d为“Image2”的右视点图像的深度显著图;

图3e为“Image2”的右视点图像的视觉舒适度显著图;

图3f为“Image2”的右视点图像的三维视觉显著图;

图4a为“Image3”的右视点图像;

图4b为“Image3”的右视点图像的真实眼动图;

图4c为“Image3”的右视点图像的二维显著图;

图4d为“Image3”的右视点图像的深度显著图;

图4e为“Image3”的右视点图像的视觉舒适度显著图;

图4f为“Image3”的右视点图像的三维视觉显著图;

图5a为“Image4”的右视点图像;

图5b为“Image4”的右视点图像的真实眼动图;

图5c为“Image4”的右视点图像的二维显著图;

图5d为“Image4”的右视点图像的深度显著图;

图5e为“Image4”的右视点图像的视觉舒适度显著图;

图5f为“Image4”的右视点图像的三维视觉显著图。


具体实施方式

以下结合附图实施例对本发明作进一步详细描述。

本发明提出的一种立体图像视觉显著图提取方法,其总体实现框图如图1所示,其包括训练阶段和测试阶段两个过程,具体步骤如下:

①选取N副各不相同而尺寸大小一致的立体图像以及每幅立体图像对应的右视差图像,构成训练图像集,记为{Li,Ri,di|1≤i≤N},其中,N≥1,在本实施例中取N=120,Li表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像的左视点图像,Ri表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像的右视点图像,di表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像对应的右视差图像。

②计算{Li,Ri,di|1≤i≤N}中的每幅立体图像对应的右视差图像中的所有像素点的视差均值、视差方差和视差范围,将di中的所有像素点的视差均值、视差方差和视差范围对应记为μi、δi和χi;然后将{Li,Ri,di|1≤i≤N}中的每幅立体图像对应的右视差图像中的所有像素点的视差均值、视差方差和视差范围按顺序进行排列构成每幅立体图像的用于反映视觉舒适度的特征矢量,将第i幅立体图像的用于反映视觉舒适度的特征矢量记为Xi,Xi=[μiii],其中,此处符号“[]”为矢量表示符号,Xi的维数为3。

在此具体实施例中,步骤②中di中的所有像素点的视差均值、视差方差和视差范围的获取过程为:

②-1、计算di中的所有像素点的视差均值,记为μi其中,1≤x≤W,1≤y≤H,此处W表示di的宽度,H表示di的高度,di(x,y)表示di中坐标位置为(x,y)的像素点的视差值。

②-2、计算di中的所有像素点的视差方差,记为δi

②-3、计算di中的所有像素点的视差范围,记为χi,χi=dmax-dmin,其中,dmax表示di中的所有像素点的视差值按从大到小的顺序排序后,前1%的视差值对应的所有像素点的视差均值;dmin表示di中的所有像素点的视差值按从大到小的顺序排序后,后1%的视差值对应的所有像素点的视差均值。

③采用支持向量回归,对{Li,Ri,di|1≤i≤N}中的所有立体图像的特征矢量进行训练,并使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,得到最优的权重矢量wopt和最优的偏置项bopt,然后利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为f(Xinp),其中,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矢量,表示支持向量回归训练模型的输入矢量Xinp的线性函数。

在此具体实施例中,步骤③的具体过程为:

③-1、将{Li,Ri,di|1≤i≤N}中的所有立体图像的特征矢量和平均主观评分均值构成训练样本数据集合,记为ΩN,{Xi,MOSi}∈ΩN,其中,MOSi表示{Li,Ri,di|1≤i≤N}中的第i幅立体图像的平均主观评分均值,MOSi∈[1,5],1≤i≤N。

③-2、构造ΩN中的每个特征矢量的回归函数,将Xi的回归函数记为f(Xi),其中,f()为函数表示形式,w为权重矢量,wT为w的转置矢量,b为偏置项,表示Xi的线性函数,D(Xi,Xl')为支持向量回归中的核函数,Xl'表示ΩN中的第l'个特征矢量,1≤l'≤N,γ为核参数,在本实施例中取核参数γ=54,exp()表示以自然基数e为底的指数函数,e=2.71828183,符号“|| ||”为求欧式距离符号。

③-3、采用支持向量回归作为机器学习的方法,对ΩN中的所有特征矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,得到最优的权重矢量wopt和最优的偏置项bopt,将最优的权重矢量wopt和最优的偏置项bopt的组合记为(wopt,bopt),然后利用得到的最优的权重矢量wopt和最优的偏置项bopt构造支持向量回归训练模型,记为f(Xinp),其中,Ψ表示对ΩN中的所有特征矢量进行训练的所有的权重矢量和偏置项的组合的集合,表示取使得的值最小的w和b的值,Xinp表示支持向量回归训练模型的输入矢量,(wopt)T为wopt的转置矢量,表示支持向量回归训练模型的输入矢量Xinp的线性函数。

④将待测试的立体图像的左视点图像和右视点图像对应记为{IL(x,y)}和{IR(x,y)},将待测试的立体图像对应的右视差图像记为{dR(x,y)},其中,此处(x,y)表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}中的像素点的坐标位置,1≤x≤W,1≤y≤H,此处W表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的宽度,H表示{IL(x,y)}、{IR(x,y)}和{dR(x,y)}的高度,IL(x,y)表示{IL(x,y)}中坐标位置为(x,y)的像素点的像素值,IR(x,y)表示{IR(x,y)}中坐标位置为(x,y)的像素点的像素值,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的视差值。

⑤采用现有的基于图论的视觉显著性模型提取出{IR(x,y)}的二维显著图,记为{S2D(x,y)},其中,S2D(x,y)表示{S2D(x,y)}中坐标位置为(x,y)的像素点的像素值。

⑥采用现有的超像素分割技术将{IR(x,y)}分割成M个互不重叠的区域,然后将{IR(x,y)}重新表示为M个区域的集合,记为{SPh},再根据{SPh}中的不同区域之间的视差相似性和空间相似性,计算{IR(x,y)}的深度显著图,记为{SDP(x,y)},其中,M≥1,在本实施例中取M=400,SPh表示{SPh}中的第h个区域,1≤h≤M,SDP(x,y)表示{SDP(x,y)}中坐标位置为(x,y)的像素点的像素值。

在此具体实施例中,步骤⑥中{IR(x,y)}的深度显著图{SDP(x,y)}的获取过程为:

⑥-1、计算{SPh}中的不同区域之间的视差相似性,将{SPh}中的第p个区域与第q个区域之间的视差相似性记为Simd(SPp,SPq),Simd(SPp,SPq)=|Σ(x,y)∈SPpdR(x,y)NSPp-Σ(x,y)∈SPqdR(x,y)NSPq|,其中,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,符号“| |”为取绝对值符号,dR(x,y)表示{dR(x,y)}中坐标位置为(x,y)的像素点的视差值,表示SPp中包含的像素点的总个数,表示SPq中包含的像素点的总个数。

⑥-2、计算{SPh}中的不同区域之间的空间相似性,将{SPh}中的第p个区域与第q个区域之间的空间相似性记为Sims(SPp,SPq),其中,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,表示SPp中的中心像素点的坐标位置,表示SPq中的中心像素点的坐标位置,符号“|| ||”为求欧式距离符号,max()为取最大值函数,exp()表示以自然基数e为底的指数函数,e=2.71828183,λ为控制参数,在本实施例中取λ=5。

⑥-3、根据{SPh}中的不同区域之间的视差相似性和空间相似性,计算{SPh}中的每个区域的深度显著值,将{SPh}中的第h个区域SPh的深度显著值记为DPSPh=Σq=1M(Simd(SPh,SPq)×Sims(SPh,SPq)),其中,1≤h≤M,1≤q≤M,h≠q,Simd(SPh,SPq)表示SPh与SPq之间的视差相似性,Sims(SPh,SPq)表示SPh与SPq之间的空间相似性。

⑥-4、将{SPh}中的每个区域的深度显著值作为对应区域中的所有像素点的显著值,从而得到{IR(x,y)}的深度显著图,记为{SDP(x,y)},其中,SDP(x,y)表示{SDP(x,y)}中坐标位置为(x,y)的像素点的像素值。

⑦根据利用训练得到的最优的权重矢量wopt和最优的偏置项bopt构造的支持向量回归训练模型f(Xinp),计算{IR(x,y)}的视觉舒适度显著图,记为{SVC(x,y)},其中,SVC(x,y)表示{SVC(x,y)}中坐标位置为(x,y)的像素点的像素值。

在此具体实施例中,步骤⑦的具体过程为:

⑦-1、计算{SPh}中的每个区域的第一视差对比度,将{SPh}中的第h个区域SPh的第一视差对比度记为其中,表示{dR(x,y)}中与SPh对应的区域中的所有像素点的视差均值,dh,max表示{dR(x,y)}中与SPh对应的区域中的所有像素点的视差值按从大到小的顺序排序后,前1%的视差值对应的所有像素点的视差均值;dh,min表示{dR(x,y)}中与SPh对应的区域中的所有像素点的视差值按从大到小的顺序排序后,后1%的视差值对应的所有像素点的视差均值。

⑦-2、计算{SPh}中的每个区域的第二视差对比度,将{SPh}中的第h个区域SPh的第二视差对比度记为S2SPh=dh,max-d‾hdh,max-dh,min.

⑦-3、计算{SPh}中的每个区域的视觉舒适度预测值,将{SPh}中的第h个区域SPh的视觉舒适度预测值记为Qh,pred其中,为采用与步骤②相同的方法计算得到的SPh的用于反映视觉舒适度的特征矢量,的维数为3,表示的线性函数。

⑦-4、根据{SPh}中的每个区域的第一视差对比度、第二视差对比度和视觉舒适度预测值,计算{SPh}中的每个区域的视觉舒适度显著值,将{SPh}中的第h个区域SPh的视觉舒适度显著值记为其中,β为控制参数,T为阈值,在本实施例中取β=0.5,T=3.5。

⑦-5、将{SPh}中的每个区域的视觉舒适度显著值作为对应区域中的所有像素点的显著值,从而得到{IR(x,y)}的视觉舒适度显著图,记为{SVC(x,y)},其中,SVC(x,y)表示{SVC(x,y)}中坐标位置为(x,y)的像素点的像素值。

⑧对{IR(x,y)}的二维显著图{S2D(x,y)}、{IR(x,y)}的深度显著图{SDP(x,y)}及{IR(x,y)}的视觉舒适度显著图{SVC(x,y)}进行融合,得到{IR(x,y)}的最终的三维视觉显著图,记为{S3D(x,y)},将{S3D(x,y)}中坐标位置为(x,y)的像素点的像素值记为S3D(x,y),S3D(x,y)=S2D(x,y)×SDP(x,y)×SVC(x,y)。

以下就利用本发明方法对法国南特大学提供的三维人眼跟踪数据库(3Deye-tracking database)中的Image1、Image2、Image3和Image4四组图像的三维视觉显著图进行提取。图2a给出了“Image1”的右视点图像、图2b给出了“Image1”的右视点图像的真实眼动图、图2c给出了“Image1”的右视点图像的二维显著图、图2d给出了“Image1”的右视点图像的深度显著图、图2e给出了“Image1”的右视点图像的视觉舒适度显著图、图2f给出了“Image1”的右视点图像的三维显著图;图3a给出了“Image2”的右视点图像、图3b给出了“Image2”的右视点图像的真实眼动图、图3c给出了“Image2”的右视点图像的二维显著图、图3d给出了“Image2”的右视点图像的深度显著图、图3e给出了“Image2”的右视点图像的视觉舒适度显著图、图3f给出了“Image2”的右视点图像的三维显著图;图4a给出了“Image3”的右视点图像、图4b给出了“Image3”的右视点图像的真实眼动图、图4c给出了“Image3”的右视点图像的二维显著图、图4d给出了“Image3”的右视点图像的深度显著图、图4e给出了“Image3”的右视点图像的视觉舒适度显著图、图4f给出了“Image3”的右视点图像的三维显著图;图5a给出了“Image4”的右视点图像、图5b给出了“Image4”的右视点图像的真实眼动图、图5c给出了“Image4”的右视点图像的二维显著图、图5d给出了“Image4”的右视点图像的深度显著图、图5e给出了“Image4”的右视点图像的视觉舒适度显著图、图5f给出了“Image4”的右视点图像的三维显著图。从图2a至图5f可以看出,采用本发明方法得到的三维视觉显著图由于考虑了二维、深度和视觉舒适度的显著图,因此能够很好地符合显著语义的特征。

专 / 利 / 交 / 易 / 流 / 程

安 / 全 / 保 / 障

  • 确保每个项目方信息真实有效;
  • 提供全程贴身服务,专业客服人员全程跟进对接环节;
  • 提供专业的技术交易咨询服务,协助完成签约交易;
  • 提供资金担保服务,确保买方资金安全;
  • 提供交易订单存证数据,协助处理技术交易纠纷。

专 / 利 / 交 / 易 / 常 / 见 / 问 / 题

1、在赋翼网没有找到自己需要的专利怎么办?

答:如果在网站没有找到须要的专利,可联系客服提交自己的需求,工作人员会在十分钟内检索全网专利库,给满意的答复。

2、在赋翼网购买专利安全吗?

答:赋翼网所出售专利均经专利权人本人核实,专利真实有效,请放心购买。

3、购买专利是一次性收费吗? 还有其他的费用吗?

答:在赋翼网购买专利,均为一次性收费(办理期间客户另提其他要求除外)。

4、购买后多久能收到专利证书?

答:跟赋翼网签订合作合同后,工作人员会立刻办理进行手续办理,买专利最快7天下证(根据办理速度不同,具体下证时间以国家知识产权局实际为准)。

5、购买后变更失败怎么办?

答:如遇到付款后未能按照合同约定变更专利权人(含合同约定任何一项没有做到),经核实后赋翼网将在2个工作日内全额退款。

—— 购买专利 ——

信息保护中,请放心填写

推 荐 专 利 更多