一种视频显著图提取方法

出售状态:已下证
专 利 号 :已交易,保密
专利类型:发明专利
专利分类:软件开发
出售价格:
直 接 购 买 联 系 客 服

详细介绍


技术领域

本发明涉及一种视频信号的处理方法,尤其是涉及一种视频显著图提取方法。


背景技术

在人类视觉接收与信息处理中,由于大脑资源有限以及外界环境信息重要性区别,因此在处理过程中人脑对外界环境信息并不是一视同仁的,而是表现出选择特征。人们在观看图像或者视频片段时注意力并非均匀分布到图像的每个区域,而是对某些显著区域关注度更高。如何将视频中视觉注意度高的显著区域检测并提取出来是计算机视觉以及基于内容的视频检索领域的一个重要的研究内容。

与图像显著图提取方法相比,视频显著图需要提取反映视频运动的语义信息。目前,通常采用视频分割、光流法、运动估计等方法来提取视频显著区域,然而这些方法并不能很好地应用于压缩域的视频,这是因为:一方面,只通过运动矢量或帧差法得到的运动信息只反映运动趋势,并不能很好地反映运动显著语义特征;另一方面,因受压缩域的计算能力局限,而不能进行复杂的特征提取操作。因此,如何从压缩后的码流中提取能够反映运动显著语义特征的重要信息,是视频显著图提取中需要研究解决的问题。


发明内容

本发明所要解决的技术问题是提供一种符合压缩域显著语义特征,且提取精度高的视频显著图提取方法。

本发明解决上述技术问题所采用的技术方案为:一种视频显著图提取方法,其特征在于包括以下步骤:

①假定待处理的原始二维视频中包含的视频帧的总帧数为T,且假定待处理的原始二维视频中的视频帧的宽和高对应为W和H;采用H.264视频编码标准对原始二维视频进行编码,得到原始二维视频的编码码流;然后服务端通过网络将原始二维视频的编码码流传输给用户端;

②用户端对服务端发送来的原始二维视频的编码码流进行解码,得到原始二维视频对应的解码视频以及解码视频中的每帧解码帧中的每个尺寸大小为8×8的子块的运动矢量、解码视频中的每帧解码帧中的每个尺寸大小为8×8的子块中的每个像素点的DCT系数,将原始二维视频对应的解码视频中的第t帧解码帧记为中的第h个子块的运动矢量记为MVh,t,将中的第h个子块中坐标位置为(x1,y1)的像素点的DCT系数记为DCTh,t(x1,y1),其中,1≤t≤T,1≤x≤W,1≤y≤H,表示中坐标位置为(x,y)的像素点的像素值,

③根据原始二维视频对应的解码视频中的每帧解码帧中的每个子块中的所有像素点的DCT系数,获取原始二维视频对应的解码视频中的每帧解码帧中的不同子块之间的纹理相似性;然后根据原始二维视频对应的解码视频中的每帧解码帧中的不同子块之间的纹理相似性,获取原始二维视频对应的解码视频中的每帧解码帧中的每个子块的纹理对比度和纹理复杂度;再根据原始二维视频对应的解码视频中的每帧解码帧中的每个子块的纹理对比度和纹理复杂度,获取原始二维视频对应的解码视频中的每帧解码帧中的每个子块的纹理显著值,进而得到原始二维视频对应的解码视频中的每帧解码帧的纹理显著图,将的纹理显著图记为{St,texture(x,y)},其中,St,texture(x,y)表示{St,texture(x,y)}中坐标位置为(x,y)的像素点的像素值;

④根据原始二维视频对应的解码视频中的每帧解码帧中的每个子块的运动矢量,获取原始二维视频对应的解码视频中的每帧解码帧的运动矢量图;然后通过计算原始二维视频对应的解码视频中的每帧解码帧的全局运动参数向量,获取原始二维视频对应的解码视频中的每帧解码帧的全局运动矢量图;再根据原始二维视频对应的解码视频中的每帧解码帧的运动矢量图和全局运动矢量图,获取原始二维视频对应的解码视频中的每帧解码帧的前景运动矢量图;最后根据原始二维视频对应的解码视频中的每帧解码帧的前景运动矢量图,获取原始二维视频对应的解码视频中的每帧解码帧的运动显著图,将的运动显著图记为{St,motion(x,y)},其中,St,motion(x,y)表示{St,motion(x,y)}中坐标位置为(x,y)的像素点的像素值;

⑤根据原始二维视频对应的解码视频中的每帧解码帧的纹理显著图,获取原始二维视频对应的解码视频中的每帧解码帧的纹理不确定性图;并根据原始二维视频对应的解码视频中的每帧解码帧的运动显著图,获取原始二维视频对应的解码视频中的每帧解码帧的运动不确定性图;然后根据原始二维视频对应的解码视频中的每帧解码帧的纹理不确定性图和运动不确定性图,对原始二维视频对应的解码视频中的每帧解码帧的纹理显著图和运动显著图进行融合,得到原始二维视频对应的解码视频中的每帧解码帧的视频显著图,将的视频显著图记为{St,video(x,y)},将{St,video(x,y)}中坐标位置为(x,y)的像素点的像素值记为St,video(x,y),St,video(x,y)=St,texture(x,y)×Ut(x,y)+St,motion(x,y)×Vt(x,y)Ut(x,y)+Vt(x,y),其中,Ut(x,y)表示的纹理不确定性图{Ut(x,y)}中坐标位置为(x,y)的像素点的像素值,Vt(x,y)表示的运动不确定性图{Vt(x,y)}中坐标位置为(x,y)的像素点的像素值。

所述的步骤③的具体过程为:

③-1、计算原始二维视频对应的解码视频中的每帧解码帧中的不同子块之间的纹理相似性,对于中的第p个子块与第q个子块之间的纹理相似性记为T(Bp,Bq),T(Bp,Bq)=Σi=1N(ACi(Bp)-ACi(Bq))2Σi=1N(ACi(Bp)+ACi(Bq)),其中,1≤p≤W8×H8,p≠q,ACi(Bp)表示中的第p个子块中的所有像素点的DCT系数经Z字形扫描后得到的第i个交流分量,ACi(Bq)为中的第q个子块中的所有像素点的DCT系数经Z字形扫描后得到的第i个交流分量,1≤N≤N',N'表示中的每个子块中的所有像素点的DCT系数经Z字形扫描后得到的交流分量的总个数;

③-2、计算原始二维视频对应的解码视频中的每帧解码帧中的每个子块的纹理对比度,对于中的第h个子块的纹理对比度记为Fh,tFh,t=Σq=1W8×H8(T(Bh,Bq)×exp(-d(Bh,Bq)2σw2)),其中,h≠q,T(Bh,Bq)表示中的第h个子块与第q个子块之间的纹理相似性,exp()表示以自然基数e为底的指数函数,d(Bh,Bq)表示中的第h个子块与第q个子块之间的空间距离,表示中的第h个子块中的中心像素点的坐标位置,表示中的第q个子块中的中心像素点的坐标位置,符号“||||”为求欧式距离符号,σw表示高斯函数的标准差;

③-3、计算原始二维视频对应的解码视频中的每帧解码帧中的每个子块的纹理复杂度,对于中的第h个子块的纹理复杂度记为Ch,tCh,t=Σq=1W8×H8Σp=1W8×H8(ωBh(Bp,Bq)×e(Bp,Bq))Σq=1W8×H8Σp=1W8×H8ωBh(Bp,Bq),其中,h≠p≠q,ωBh(Bp,Bq)=exp(-d(d(Bp,Bq))2σw2)×exp(-(d(Bh,Bp))2σw2)×exp((d(Bh,Bq))2σw2),e(Bp,Bq)=exp(-(T(Bp,Bq))2σe2),d(Bp,Bq)表示中的第p个子块与第q个子块之间的空间距离,d(Bh,Bp)表示中的第h个子块与第p个子块之间的空间距离,表示中的第p个子块中的中心像素点的坐标位置,σe表示高斯函数的标准差;

③-4、计算原始二维视频对应的解码视频中的每帧解码帧中的每个子块的纹理显著值,对于中的第h个子块的纹理显著值记为STh,t,STh,t=Fh,t×Ch,t

③-5、将原始二维视频对应的解码视频中的每帧解码帧中的每个子块的纹理显著值作为对应子块中的每个像素点的显著值,从而得到原始二维视频对应的解码视频中的每帧解码帧的纹理显著图;对于中的每个子块的纹理显著值作为对应子块中的每个像素点的显著值,得到的纹理显著图,记为{St,texture(x,y)},其中,St,texture(x,y)表示{St,texture(x,y)}中坐标位置为(x,y)的像素点的像素值。

所述的步骤④的具体过程为:

④-1、将原始二维视频对应的解码视频中的每帧解码帧中的每个子块的运动矢量作为对应子块中的每个像素点的运动矢量,从而得到原始二维视频对应的解码视频中的每帧解码帧的运动矢量图;对于中的每个子块的运动矢量作为对应子块中的每个像素点的运动矢量,得到的运动矢量图,记为{MVt(x,y)},其中,MVt(x,y)表示{MVt(x,y)}中坐标位置为(x,y)的像素点的运动矢量;

④-2、计算原始二维视频对应的解码视频中的每帧解码帧的全局运动参数向量,对于的全局运动参数向量记为mt',mt′=argminmt∈Ω(Σy=1HΣx=1W(I~t(x,y)-I~t-1(x,y;mt))2),其中,mt表示可选的全局运动参数向量,mt=[m0,m1,m2,m3,m4,m5,m6,m7],m0,m1,m2,m3,m4,m5,m6,m7对应表示mt中的第1个、第2个、第3个、第4个、第5个、第6个、第7个、第8个全局运动参数,mt∈Ω,Ω表示全局运动参数向量集合,argminmt∈Ω(Σy=1HΣx=1W(I~t(x,y)-I~t-1(x,y;mt))2)表示取使得的值最小的mt,采用线性回归方法求解argminmt∈Ω(Σy=1HΣx=1W(I~t(x,y)-I~t-1(x,y;mt))2)mt'=[m0',m1',m2',m3',m4',m5',m6',m7'],m0',m1',m2',m3',m4',m5',m6',m7'对应表示mt'中的第1个、第2个、第3个、第4个、第5个、第6个、第7个、第8个全局运动参数,表示原始二维视频对应的解码视频中的第t-1帧解码帧中坐标位置为(x',y')的像素点的像素值,x′=m0×x+m1×y+m2m6×x+m7×m7×y+1,y′=m3×x+m4×y+m5m6×x+m7×y+1;

④-3、根据原始二维视频对应的解码视频中的每帧解码帧的全局运动参数向量,获取原始二维视频对应的解码视频中的每帧解码帧的全局运动矢量图;对于根据mt',获取的全局运动矢量图,记为{GMVt(x,y)},将{GMVt(x,y)}中坐标位置为(x,y)的像素点的全局运动矢量记为GMVt(x,y),GMVt(x,y)=[GMVtx(x,y),GMVty(x,y)],其中,符号“[]”为矢量表示符号,表示GMVt(x,y)的水平分量,表示GMVt(x,y)的垂直分量,GMVty(x,y)=y′′-y,x′′=m0′×x+m1′×ym2′m6′×x+m7′×y+1,y′′=m3′×x+m4′×y+m5′m6′×x+m7′×y+1;

④-4、根据原始二维视频对应的解码视频中的每帧解码帧的运动矢量图和全局运动矢量图,获取原始二维视频对应的解码视频中的每帧解码帧的前景运动矢量图;对于根据{MVt(x,y)}和{GMVt(x,y)},获取的前景运动矢量图,记为{FMVt(x,y)},将{FMVt(x,y)}中坐标位置为(x,y)的像素点的前景运动矢量记为FMVt(x,y),FMVt(x,y)=GMVt(x,y)-MVt(x,y),其中,FMVt(x,y)=[FMVtx(x,y),FMVty(x,y)],FMVtx(x,y)表示FMVt(x,y)的水平分量,表示FMVt(x,y)的垂直分量;

④-5、计算原始二维视频对应的解码视频中的每帧解码帧的运动显著图,对于的运动显著图记为{St,motion(x,y)},将{St,motion(x,y)}中坐标位置为(x,y)的像素点的像素值记为St,motion(x,y),St,motion(x,y)=(FMVtx(x,y))2+(FMVty(x,y))2.

所述的步骤⑤的具体过程为:

⑤-1、根据原始二维视频对应的解码视频中的每帧解码帧的纹理显著图,计算原始二维视频对应的解码视频中的每帧解码帧的纹理中心坐标位置;对于根据{St,texture(x,y)}获得的纹理中心坐标位置,记为(xc,yc),xc=1W×HΣy=1HΣx=1W(x×St,texture(x,y)),yc=1W×HΣy=1HΣx=1W(y×St,texture(x,y));

⑤-2、根据原始二维视频对应的解码视频中的每帧解码帧的纹理中心坐标位置,计算原始二维视频对应的解码视频中的每帧解码帧的纹理不确定性图;对于根据(xc,yc),获得的纹理不确定性图,记为{Ut(x,y)},将{Ut(x,y)}中坐标位置为(x,y)的像素点的像素值记为Ut(x,y),Ut(x,y)=f(pc(x,y)),其中,f()为函数表示形式,f(pc(x,y))=-pc(x,y)×log2(pc(x,y))-(1-pc(x,y))×log2(1-pc(x,y)),log2()表示以2为底的对数函数,dc(x,y)表示中坐标位置为(x,y)的像素点与中坐标位置为(xc,yc)的像素点之间的空间距离,dc(x,y)=(x-xc)2+(y-yc)2,α1、β1和γ1为模型参数;

⑤-3、根据原始二维视频对应的解码视频中的每帧解码帧的运动显著图,计算原始二维视频对应的解码视频中的每帧解码帧的运动中心坐标位置;对于根据{St,motion(x,y)},获得的运动中心坐标位置,记为(xm,ym),xm=1W×HΣy=1HΣx=1W(xSt,motion(x,y)),ym=1W×HΣy=1HΣx=1W(y×St,motion(x,y));

⑤-4、根据原始二维视频对应的解码视频中的每帧解码帧的运动中心坐标位置,计算原始二维视频对应的解码视频中的每帧解码帧的运动不确定性图;对于根据(xm,ym),获得的运动不确定性图,记为{Vt(x,y)},将{Vt(x,y)}中坐标位置为(x,y)的像素点的像素值记为Vt(x,y),Vt(x,y)=f(pm(x,y)),其中,f()为函数表示形式,f(pm(x,y))=-pm(x,y)×log2(pm(x,y))-(1-pm(x,y))×log2(1-pm(x,y)),pm(x,y)=α1×exp(-(dm(x,y)β1)γ1),dm(x,y)表示中坐标位置为(x,y)的像素点与中坐标位置为(xm,ym)的像素点之间的空间距离,dm(x,y)=(x-xm)2+(y-ym)2,α1、β1和γ1为模型参数;

⑤-5、根据原始二维视频对应的解码视频中的每帧解码帧的纹理不确定性图和运动不确定性图,对原始二维视频对应的解码视频中的每帧解码帧的纹理显著图和运动显著图进行融合,得到原始二维视频对应的解码视频中的每帧解码帧的视频显著图;对于根据{Ut(x,y)}和{Vt(x,y)}对{St,texture(x,y)}和{St,motion(x,y)}进行融合,得到的视频显著图,记为{St,video(x,y)},将{St,video(x,y)}中坐标位置为(x,y)的像素点的像素值记为St,video(x,y)St,video(x,y)=St,texture(x,y)×Ut(x,y)+St,motion(x,y)×Vt(x,y)Ut(x,y)+Vt(x,y).

与现有技术相比,本发明的优点在于:

1)本发明方法通过从编码码率中获取的解码视频、解码视频中的每帧解码帧中的每个尺寸大小为8×8的子块的运动矢量和解码视频中的每帧解码帧中的每个尺寸大小为8×8的子块中的每个像素点的DCT系数,获取解码视频中的每帧解码帧的纹理显著图和运动显著图,获得的纹理显著图和运动显著图具有较强的稳定性,并使最终得到的视频显著图能够较好地反映视频的静态和动态的显著变化情况,符合压缩域视频显著语义的特征。

2)本发明方法通过分别估计解码视频中的每帧解码帧的纹理不确定性图和运动不确定性图,并将每帧解码帧的纹理不确定性图和运动不确定性图作为对每帧解码帧的纹理显著图和运动显著图进行结合的依据,得到最终的视频显著图,有效地提高了显著性检测的预测准确性。


附图说明

图1为本发明方法的总体实现框图;

图2a为“Beverly01”视频序列的第340帧解码帧;

图2b为“Beverly01”视频序列的第340帧解码帧的纹理显著图;

图2c为“Beverly01”视频序列的第340帧解码帧的运动显著图;

图2d为“Beverly01”视频序列的第340帧解码帧的视频显著图;

图3a为“Beverly03”视频序列的第340帧解码帧;

图3b为“Beverly03”视频序列的第340帧解码帧的纹理显著图;

图3c为“Beverly03”视频序列的第340帧解码帧的运动显著图;

图3d为“Beverly03”视频序列的第340帧解码帧的视频显著图;

图4a为“Beverly05”视频序列的第340帧解码帧;

图4b为“Beverly05”视频序列的第340帧解码帧的纹理显著图;

图4c为“Beverly05”视频序列的第340帧解码帧的运动显著图;

图4d为“Beverly05”视频序列的第340帧解码帧的视频显著图;

图5a为“Beverly06”视频序列的第340帧解码帧;

图5b为“Beverly06”视频序列的第340帧解码帧的纹理显著图;

图5c为“Beverly06”视频序列的第340帧解码帧的运动显著图;

图5d为“Beverly06”视频序列的第340帧解码帧的视频显著图;

图6a为“Beverly07”视频序列的第230帧解码帧;

图6b为“Beverly07”视频序列的第230帧解码帧的纹理显著图;

图6c为“Beverly07”视频序列的第230帧解码帧的运动显著图;

图6d为“Beverly07”视频序列的第230帧解码帧的视频显著图。


具体实施方式

以下结合附图实施例对本发明作进一步详细描述。

本发明提出的一种视频显著图提取方法,其总体实现框图如图1所示,其包括以下步骤:

①假定待处理的原始二维视频中包含的视频帧的总帧数为T,且假定待处理的原始二维视频中的视频帧的宽和高对应为W和H,将原始二维视频中的第t帧视频帧记为{It(x,y)},将{It(x,y)}中坐标位置为(x,y)的像素点的像素值记为It(x,y),其中,1≤t≤T,T>1,T的具体值根据处理的二维视频序列而定,1≤x≤W,1≤y≤H;采用现有的H.264视频编码标准对原始二维视频进行编码,得到原始二维视频的编码码流;然后服务端通过网络将原始二维视频的编码码流传输给用户端。

②用户端对服务端发送来的原始二维视频的编码码流进行解码,得到原始二维视频对应的解码视频以及解码视频中的每帧解码帧中的每个尺寸大小为8×8的子块的运动矢量、解码视频中的每帧解码帧中的每个尺寸大小为8×8的子块中的每个像素点的DCT系数,将原始二维视频对应的解码视频中的第t帧解码帧记为中的第h个子块的运动矢量记为MVh,t,将中的第h个子块中坐标位置为(x1,y1)的像素点的DCT系数记为DCTh,t(x1,y1),其中,1≤t≤T,1≤x≤W,1≤y≤H,表示中坐标位置为(x,y)的像素点的像素值,符号“[]”为矢量表示符号,表示MVh,t的水平分量,表示MVh,t的垂直分量,1≤x1≤8,1≤y1≤8。

③由于图像块的DCT系数反映了图像块的能量信息,其中直流分量(DC系数)包含图像块的平均能量,而交流分量(AC系数)包含图像块的高频信息,因此本发明根据原始二维视频对应的解码视频中的每帧解码帧中的每个子块中的所有像素点的DCT系数,获取原始二维视频对应的解码视频中的每帧解码帧中的不同子块之间的纹理相似性;然后根据原始二维视频对应的解码视频中的每帧解码帧中的不同子块之间的纹理相似性,获取原始二维视频对应的解码视频中的每帧解码帧中的每个子块的纹理对比度和纹理复杂度;再根据原始二维视频对应的解码视频中的每帧解码帧中的每个子块的纹理对比度和纹理复杂度,获取原始二维视频对应的解码视频中的每帧解码帧中的每个子块的纹理显著值,进而得到原始二维视频对应的解码视频中的每帧解码帧的纹理显著图,将的纹理显著图记为{St,texture(x,y)},其中,St,texture(x,y)表示{St,texture(x,y)}中坐标位置为(x,y)的像素点的像素值。

在此具体实施例中,步骤③的具体过程为:

③-1、计算原始二维视频对应的解码视频中的每帧解码帧中的不同子块之间的纹理相似性,对于中的第p个子块与第q个子块之间的纹理相似性记为T(Bp,Bq),T(Bp,Bq)=Σi=1N(ACi(Bp)-ACi(Bq))2Σi=1N(ACi(Bp)+ACi(Bq)),其中,1≤p≤W8×H8,p≠q,ACi(Bp)表示中的第p个子块中的所有像素点的DCT系数经Z字形扫描后得到的第i个交流分量,ACi(Bq)为中的第q个子块中的所有像素点的DCT系数经Z字形扫描后得到的第i个交流分量,1≤N≤N',N'表示中的每个子块中的所有像素点的DCT系数经Z字形扫描后得到的交流分量的总个数,在本实施例中只取经Z字形扫描后的前9个交流分量,即取N=9。

③-2、计算原始二维视频对应的解码视频中的每帧解码帧中的每个子块的纹理对比度,对于中的第h个子块的纹理对比度记为Fh,tFh,t=Σq=1W8×H8(T(Bh,Bq)×exp(-d(Bh,Bq)2σw2)),其中,h≠q,T(Bh,Bq)表示中的第h个子块与第q个子块之间的纹理相似性,exp()表示以自然基数e为底的指数函数,e=2.71828183…,d(Bh,Bq)表示中的第h个子块与第q个子块之间的空间距离,表示中的第h个子块中的中心像素点的坐标位置,表示中的第q个子块中的中心像素点的坐标位置,符号“||||”为求欧式距离符号,σw表示高斯函数的标准差,在本实施例中取σw=0.4。

③-3、计算原始二维视频对应的解码视频中的每帧解码帧中的每个子块的纹理复杂度,对于中的第h个子块的纹理复杂度记为Ch,tCh,t=Σq=1W8×H8Σp=1W8×H8(ωBh(Bp,Bq)×e(Bp,Bq))Σq=1W8×H8Σp=1W8×H8ωBh(Bp,Bq),其中,h≠p≠q,ωBh(Bp,Bq)=exp(-d(d(Bp,Bq))2σw2)×exp(-(d(Bh,Bp))2σw2)×exp((d(Bh,Bq))2σw2),e(Bp,Bq)=exp(-(T(Bp,Bq))2σe2),d(Bp,Bq)表示中的第p个子块与第q个子块之间的空间距离,d(Bh,Bp)表示中的第h个子块与第p个子块之间的空间距离,表示中的第p个子块中的中心像素点的坐标位置,σe表示高斯函数的标准差,在本实施例中取σe=0.1。

③-4、计算原始二维视频对应的解码视频中的每帧解码帧中的每个子块的纹理显著值,对于中的第h个子块的纹理显著值记为STh,t,STh,t=Fh,t×Ch,t

③-5、将原始二维视频对应的解码视频中的每帧解码帧中的每个子块的纹理显著值作为对应子块中的每个像素点的显著值,从而得到原始二维视频对应的解码视频中的每帧解码帧的纹理显著图;对于中的每个子块的纹理显著值作为对应子块中的每个像素点的显著值,即对于中的第h个子块,将该子块的纹理显著值作为该子块中的每个像素点的显著值,得到的纹理显著图,记为{St,texture(x,y)},其中,St,texture(x,y)表示{St,texture(x,y)}中坐标位置为(x,y)的像素点的像素值。

④根据原始二维视频对应的解码视频中的每帧解码帧中的每个子块的运动矢量,获取原始二维视频对应的解码视频中的每帧解码帧的运动矢量图;然后通过计算原始二维视频对应的解码视频中的每帧解码帧的全局运动参数向量,获取原始二维视频对应的解码视频中的每帧解码帧的全局运动矢量图;再根据原始二维视频对应的解码视频中的每帧解码帧的运动矢量图和全局运动矢量图,获取原始二维视频对应的解码视频中的每帧解码帧的前景运动矢量图;最后根据原始二维视频对应的解码视频中的每帧解码帧的前景运动矢量图,获取原始二维视频对应的解码视频中的每帧解码帧的运动显著图,将的运动显著图记为{St,motion(x,y)},其中,St,motion(x,y)表示{St,motion(x,y)}中坐标位置为(x,y)的像素点的像素值。

在此具体实施例中,步骤④的具体过程为:

④-1、将原始二维视频对应的解码视频中的每帧解码帧中的每个子块的运动矢量作为对应子块中的每个像素点的运动矢量,从而得到原始二维视频对应的解码视频中的每帧解码帧的运动矢量图;对于中的每个子块的运动矢量作为对应子块中的每个像素点的运动矢量,即对于中的第h个子块,将该子块的运动矢量作为该子块中的每个像素点的运动矢量,得到的运动矢量图,记为{MVt(x,y)},其中,MVt(x,y)表示{MVt(x,y)}中坐标位置为(x,y)的像素点的运动矢量。

④-2、由于视频中包含相机和背景运动及错误的运动矢量估计,导致估计的运动矢量并不能很好地反映对象运动,因此本发明计算原始二维视频对应的解码视频中的每帧解码帧的全局运动参数向量,对于的全局运动参数向量记为mt',mt′=argminmt∈Ω(Σy=1HΣx=1W(I~t(x,y)-I~t-1(x,y;mt))2),其中,mt表示可选的全局运动参数向量,mt=[m0,m1,m2,m3,m4,m5,m6,m7],m0,m1,m2,m3,m4,m5,m6,m7对应表示mt中的第1个、第2个、第3个、第4个、第5个、第6个、第7个、第8个全局运动参数,mt∈Ω,Ω表示全局运动参数向量集合,argminmt∈Ω(Σy=1HΣx=1W(I~t(x,y)-I~t-1(x,y;mt))2)表示取使得的值最小的mt,采用现有的线性回归方法求解argminmt∈Ω(Σy=1HΣx=1W(I~t(x,y)-I~t-1(x,y;mt))2)mt'=[m0',m1',m2',m3',m4',m5',m6',m7'],m0',m1',m2',m3',m4',m5',m6',m7'对应表示mt'中的第1个、第2个、第3个、第4个、第5个、第6个、第7个、第8个全局运动参数,表示原始二维视频对应的解码视频中的第t-1帧解码帧中坐标位置为(x',y')的像素点的像素值,x′=m0×x+m1×y+m2m6×x+m7×m7×y+1,y′=m3×x+m4×y+m5m6×x+m7×y+1.

④-3、根据原始二维视频对应的解码视频中的每帧解码帧的全局运动参数向量,获取原始二维视频对应的解码视频中的每帧解码帧的全局运动矢量图;对于根据mt',获取的全局运动矢量图,记为{GMVt(x,y)},将{GMVt(x,y)}中坐标位置为(x,y)的像素点的全局运动矢量记为GMVt(x,y),GMVt(x,y)=[GMVtx(x,y),GMVty(x,y)],其中,符号“[]”为矢量表示符号,表示GMVt(x,y)的水平分量,GMVtx(x,y)=x′′-x,GMVty(x,y)表示GMVt(x,y)的垂直分量,GMVty(x,y)=y′′-y,x′′=m0′×x+m1′×ym2′m6′×x+m7′×y+1,y′′=m3′×x+m4′×y+m5′m6′×x+m7′×y+1.

④-4、根据原始二维视频对应的解码视频中的每帧解码帧的运动矢量图和全局运动矢量图,获取原始二维视频对应的解码视频中的每帧解码帧的前景运动矢量图;对于根据{MVt(x,y)}和{GMVt(x,y)},获取的前景运动矢量图,记为{FMVt(x,y)},将{FMVt(x,y)}中坐标位置为(x,y)的像素点的前景运动矢量记为FMVt(x,y),FMVt(x,y)=GMVt(x,y)-MVt(x,y),其中,FMVt(x,y)=[FMVtx(x,y),FMVty(x,y)],FMVtx(x,y)表示FMVt(x,y)的水平分量,表示FMVt(x,y)的垂直分量。

④-5、计算原始二维视频对应的解码视频中的每帧解码帧的运动显著图,对于的运动显著图记为{St,motion(x,y)},将{St,motion(x,y)}中坐标位置为(x,y)的像素点的像素值记为St,motion(x,y),St,motion(x,y)=(FMVtx(x,y))2+(FMVty(x,y))2.

⑤根据原始二维视频对应的解码视频中的每帧解码帧的纹理显著图,获取原始二维视频对应的解码视频中的每帧解码帧的纹理不确定性图;并根据原始二维视频对应的解码视频中的每帧解码帧的运动显著图,获取原始二维视频对应的解码视频中的每帧解码帧的运动不确定性图;然后根据原始二维视频对应的解码视频中的每帧解码帧的纹理不确定性图和运动不确定性图,对原始二维视频对应的解码视频中的每帧解码帧的纹理显著图和运动显著图进行融合,得到原始二维视频对应的解码视频中的每帧解码帧的视频显著图,将的视频显著图记为{St,video(x,y)},将{St,video(x,y)}中坐标位置为(x,y)的像素点的像素值记为St,video(x,y),St,video(x,y)=St,texture(x,y)×Ut(x,y)+St,motion(x,y)×Vt(x,y)Ut(x,y)+Vt(x,y),其中,Ut(x,y)表示的纹理不确定性图{Ut(x,y)}中坐标位置为(x,y)的像素点的像素值,Vt(x,y)表示的运动不确定性图{Vt(x,y)}中坐标位置为(x,y)的像素点的像素值。

在此具体实施例中,步骤⑤的具体过程为:

⑤-1、根据原始二维视频对应的解码视频中的每帧解码帧的纹理显著图,计算原始二维视频对应的解码视频中的每帧解码帧的纹理中心坐标位置;对于根据{St,texture(x,y)},获得的纹理中心坐标位置,记为(xc,yc),xc=1W×HΣy=1HΣx=1W(x×St,texture(x,y)),yc=1W×HΣy=1HΣx=1W(y×St,texture(x,y)).

⑤-2、根据原始二维视频对应的解码视频中的每帧解码帧的纹理中心坐标位置,计算原始二维视频对应的解码视频中的每帧解码帧的纹理不确定性图;对于根据(xc,yc),获得的纹理不确定性图,记为{Ut(x,y)},将{Ut(x,y)}中坐标位置为(x,y)的像素点的像素值记为Ut(x,y),Ut(x,y)=f(pc(x,y)),其中,f()为函数表示形式,f(pc(x,y))=-pc(x,y)×log2(pc(x,y))-(1-pc(x,y))×log2(1-pc(x,y)),log2()表示以2为底的对数函数,dc(x,y)表示中坐标位置为(x,y)的像素点与中坐标位置为(xc,yc)的像素点之间的空间距离,α1、β1和γ1为模型参数,在本实施例中取α1=0.9694,β1=93.30,γ1=2.8844。

⑤-3、根据原始二维视频对应的解码视频中的每帧解码帧的运动显著图,计算原始二维视频对应的解码视频中的每帧解码帧的运动中心坐标位置;对于根据{St,motion(x,y)},获得的运动中心坐标位置,记为(xm,ym),xm=1W×HΣy=1HΣx=1W(xSt,motion(x,y)),ym=1W×HΣy=1HΣx=1W(y×St,motion(x,y)).

⑤-4、根据原始二维视频对应的解码视频中的每帧解码帧的运动中心坐标位置,计算原始二维视频对应的解码视频中的每帧解码帧的运动不确定性图;对于根据(xm,ym),获得的运动不确定性图,记为{Vt(x,y)},将{Vt(x,y)}中坐标位置为(x,y)的像素点的像素值记为Vt(x,y),Vt(x,y)=f(pm(x,y)),其中,f()为函数表示形式,f(pm(x,y))=-pm(x,y)×log2(pm(x,y))-(1-pm(x,y))×log2(1-pm(x,y)),pm(x,y)=α1×exp(-(dm(x,y)β1)γ1),dm(x,y)表示中坐标位置为(x,y)的像素点与中坐标位置为(xm,ym)的像素点之间的空间距离,α1、β1和γ1为模型参数,在本实施例中取α1=0.9694,β1=93.30,γ1=2.8844。

⑤-5、由于检测的运动对象在时间和空间上表现出不同程度的不确定性,对纹理显著图和运动显著图进行融合也需要充分考虑这些不确定性,因此本发明根据原始二维视频对应的解码视频中的每帧解码帧的纹理不确定性图和运动不确定性图,对原始二维视频对应的解码视频中的每帧解码帧的纹理显著图和运动显著图进行融合,得到原始二维视频对应的解码视频中的每帧解码帧的视频显著图;对于根据{Ut(x,y)}和{Vt(x,y)}对{St,texture(x,y)}和{St,motion(x,y)}进行融合,得到的视频显著图,记为{St,video(x,y)},将{St,video(x,y)}中坐标位置为(x,y)的像素点的像素值记为St,video(x,y),St,video=(x,y)=St,texture(x,y)×Ut(x,y)+St,motion(x,y)×Vt(x,y)Ut(x,y)+Vt(x,y).

以下就利用本发明方法对比利时蒙斯理工学院TCTS实验室提供的ASCMN数据库中的“Beverly01”、“Beverly03”、“Beverly05”、“Beverly06”和“Beverly07”五个视频序列的视频显著图进行提取。图2a给出了“Beverly01”视频序列的第340帧解码帧,图2b给出了“Beverly01”视频序列的第340帧解码帧的纹理显著图,图2c给出了“Beverly01”视频序列的第340帧解码帧的运动显著图,图2d给出了“Beverly01”视频序列的第340帧解码帧的视频显著图;图3a给出了“Beverly03”视频序列的第340帧解码帧,图3b给出了“Beverly03”视频序列的第340帧解码帧的纹理显著图,图3c给出了“Beverly03”视频序列的第340帧解码帧的运动显著图,图3d给出了“Beverly03”视频序列的第340帧解码帧的视频显著图;图4a给出了“Beverly05”视频序列的第340帧解码帧,图4b给出了“Beverly05”视频序列的第340帧解码帧的纹理显著图,图4c给出了“Beverly05”视频序列的第340帧解码帧的运动显著图,图4d给出了“Beverly05”视频序列的第340帧解码帧的视频显著图;图5a给出了“Beverly06”视频序列的第340帧解码帧,图5b给出了“Beverly06”视频序列的第340帧解码帧的纹理显著图,图5c给出了“Beverly06”视频序列的第340帧解码帧的运动显著图,图5d给出了“Beverly06”视频序列的第340帧解码帧的视频显著图;图6a给出了“Beverly07”视频序列的第230帧解码帧,图6b给出了“Beverly07”视频序列的230帧解码帧的纹理显著图,图6c给出了“Beverly07”视频序列的第230帧解码帧的运动显著图,图6d给出了“Beverly07”视频序列的第230帧解码帧的视频显著图。从图2a至图6d可以看出,采用本发明方法得到的视频显著图由于考虑了纹理显著图和运动显著图,因此能够较好地反映视频的静态和动态的显著变化情况,符合压缩域视频显著语义的特征。

专 / 利 / 交 / 易 / 流 / 程

安 / 全 / 保 / 障

  • 确保每个项目方信息真实有效;
  • 提供全程贴身服务,专业客服人员全程跟进对接环节;
  • 提供专业的技术交易咨询服务,协助完成签约交易;
  • 提供资金担保服务,确保买方资金安全;
  • 提供交易订单存证数据,协助处理技术交易纠纷。

专 / 利 / 交 / 易 / 常 / 见 / 问 / 题

1、在赋翼网没有找到自己需要的专利怎么办?

答:如果在网站没有找到须要的专利,可联系客服提交自己的需求,工作人员会在十分钟内检索全网专利库,给满意的答复。

2、在赋翼网购买专利安全吗?

答:赋翼网所出售专利均经专利权人本人核实,专利真实有效,请放心购买。

3、购买专利是一次性收费吗? 还有其他的费用吗?

答:在赋翼网购买专利,均为一次性收费(办理期间客户另提其他要求除外)。

4、购买后多久能收到专利证书?

答:跟赋翼网签订合作合同后,工作人员会立刻办理进行手续办理,买专利最快7天下证(根据办理速度不同,具体下证时间以国家知识产权局实际为准)。

5、购买后变更失败怎么办?

答:如遇到付款后未能按照合同约定变更专利权人(含合同约定任何一项没有做到),经核实后赋翼网将在2个工作日内全额退款。

—— 购买专利 ——

信息保护中,请放心填写

推 荐 专 利 更多