关注我们 

安防视频监控图像处理的技术与方法

2014-08-28 10:02:46 来源:CPS中安网 作者:雷玉堂 责任编辑: huangliyun 收藏本文
摘要:众所周知,图像处理的目是改善图像质量、提取有用信息、识别预定目标等。而光电图像信息处理技术紧跟信息处理技术的前沿,扩展人类的信息器官和思维器官的功能。
 

    【CPS中安网 cps.com.cn】   众所周知,图像处理的目是改善图像质量、提取有用信息、识别预定目标等。而光电图像信息处理技术紧跟信息处理技术的前沿,扩展人类的信息器官和思维器官的功能。特别是信息获取与处理技术的发展,使人类对于外部世界看得远(超视距本领)、看得清(空间分辨、光谱分辨和立体分辨本领)、不受阻挡(穿透云雾或物体本领)、识别能力强(信息处理技术),把人类获取外界信息的能力提高到空前的高度。

  由于光电信息技术是边缘学科交叉的新兴科学技术,而其光电成像器件输出的是视频图像信号,因而光电图像处理,也就是我们常说的视频图像处理,而这种视频图像处理的技术与方法,已广涉应用于现代安防视频监控图像处理中。本文介绍视频图像及其处理的基本概念,视频图像处理的基本技术与方法:如像素的点处理、区域处理,视频图像的帧处理等。

  视频图像及其处理的基本概念

  视频图像的含义

  众所周知,扫描型光电成像器件或摄像器件,是通过电子束扫描或固体自扫描等方式,将被摄景物经光学系统成像在器件的光敏面上的二维图像转变为一维时序信号输出来。这种运载图像信息的一维时序信号就称为视频信号,或视频图像信号。如将这种视频信号送入监视器,控制显像管的电子枪的强度,显像管的电子枪与摄像器件作同步扫描,即可将摄像器件所摄取的图像显示出来。显然,这种扫描型光电成像器件能对图像进行存储和传输,并能实现远程观察。

  视频(video)指动态图像(moving image),可以认为是随时间变化的静态图像系列(still-frame image/picture sequence)。在静态图像中,信息密度随空间分布,且相对于时间为常量;而动态图像的空间信息密度特征则随时间变化。

  视频图像的数学表达式

  视频图像的数学表达式的一般形式可以以写成S(x,y,t)。其中,x,y为空间变量,t为时间变量,而S为对应于时空点(x,y,t)的光度学物理量。如果采用RGB体系来描述的话,完整的数字表达式可写成

  R=SR(x,y,t)

  G= SG(x,y,t) (1)

  B= SB(x,y,t)

  当RGB为模拟信号时,我们称它为模拟视频。如果对RGB进行了数字化,就称为数字视频,这与模拟静态图像和数字静态图像的概念是基本相似的。但是模拟视频和数字视频要比模拟静态图像和数字静态图像的关系与差别复杂得多。

  视频图像处理的基本概念

  光电图像处理是光电成像技术与数字图像处理技术的结合,如图1所示。由图看出,光电成像技术是自然界图像到数字世界图像的桥梁。光电图像处理是基于光电成像技术与计算机技术的图像处理,因而其计算精度高、灵活性好、适应性强。

  视频图像处理可以看成静态图像处理的高层处理,又可以看成静态图像处理的继续。首先,它要用到静态图像处理的所有技术,因为视频图像是在时间上系列化的静态图像;其次,它包含了许多静态图像处理没有的或不能解决的新问题;再次,视频图像处理同时与图形学、人工智能、模式识别等多个学科领域都有交叉的内容,它们既有联系,又有各自的特征和侧重点。由于图像是由像素构成的,所以在很多情况下是对像素直接处理。这种像素处理的技术方法又可分为点处理和区域处理的技术方法,此外还有图像的帧处理。下面分别论述。

  视频图像的点处理的技术与方法

  点处理又叫做直接对原像素值进行处理,是一种最基本的图像处理操作,算法比其他算法简单。点处理算法是指仅根据图像中像素的原值(有时还要考虑该像素在图像中的位置)按一定规则(或变换)来确定其新值的一种算法。也就是说,单个像素的新值仅仅依赖于该像素原值的大小。由于像素原值与新值之间算法上的这种联系,点处理算法一般是可逆的,并采取逐点扫描图像像素的方式来完成各像素的变换处理。

  由于点处理变换是一种仅仅依赖于像素原值的变换,所以这种变换过程可借助于查找表(LUT)来快速实现。如果点处理算法中还要考虑像素的位置,则除了查找表外,还要用到计算公式。一般,点处理算法并不改变一幅图像中各像素之间的空间关系,因而点处理算法不能用于修饰图像中所包含的细节。

  点处理仅是用输入像素值产生输出像素值,它是图像处理最简单最有效的方法。

  点处理的应用包括图像灰度变换、色度变换、直方图分析等。下面讨论点处理方法实现的图像亮度调整、图像亮度反置、图像阈值化、图像对比度拉伸、图像伪彩色处理等图像处理算法。

  图像亮度调整

  这是一种点处理,处理时对图像中每个像素加上(或减去)一个常数。设像素亮度为I,则变化按下式进行

  I=I+b (2)

  式中,b是亮度常数,可为正数或负数。若b为正数,则像素亮度增加;若b为负数,则像素亮度减少。

  图像亮度反置

  图像亮度反置同根据照片制作负片有点相似,是一种很简单的点处理技术。用这种方法对图像进行处理后,图像亮的部分变暗,暗的部分变亮,较亮的部分变成较暗,较暗的部分变成较亮。其处理方法是:用可能的最大像素值减去像素的值作为该像素的新值。图像中最暗的部分,其像素值为0,处理后变成最亮的部分,其像素值为63。反之,图像中最亮的部分经变换后反置成最暗的部分。

  图像阈值化

  这是一种将连续色调图像变成黑白图像的方法,其基本思想是使像素值小于指定阈值的像转换成黑像素,像素值等于或大于指定阈值的像素转换成白像素。这一方法在诸如桌面印刷、机器视觉等各个领域都有着广泛的应用。

  在机器视觉领域内,对图像进行边缘检测之前,一般先对其进行二值化处理。在这种情况下,阈值处理能够消除图像中那些可能会干扰边界检测处理的信息。正确地选择阈值以保证在阈值处理中不至于损失太多的信息,这一点是很重要的。

 

  对比度拉伸

  一幅图像的对比度与该图像中亮的部分和暗的部分的分布情况有关。当一幅图像大部分区域都很亮或大部分区域都很暗时,该图像显示出对比度低的特点;而当一幅图像中较亮的部分与较暗的部分所占比重相当时,该图像显示出对比度高的特点,连续色调图像只有充分利用所有灰度色调范围,才能显现出对比度高的特点。

  直方图是检查图像对比度的一个理想工具,因此通常将直方图与对比度拉伸点处理算法配套使用,以增强图像的对比度。进行对比度拉伸时,需要先用直方图来判定低对比度图像中像素值的分布主要集中在哪个区域。一般,这个区域周围往往有像素值没有用的区。为了拉伸对比度,需分别从直方图的左端向右(即0~63)和右端(最大像素处)向左(即63~0)扫描直方图,分别找到超过给定阈值的第一个像素。像素值小于较低的那个阈值的像素,其像素值置0,像素值大于较高的那个阈值的像素其像素值置63。像素值介于两个阈值之间的像素,按比例放大,使其填满0到63区间,经过上述处理后的图像较好地利用了整个灰度范围,视觉效果亦明显改善。

  伪彩色处理

  它是用色度来代替像素灰度值的一种技术,即将黑白图像变为彩色图像,并用不同的色彩来代替黑白图像的不同灰度等级,以达到图像增强的目的。这样做基于人眼对彩色的分辨率远远高于对灰度的分辨率,因为人对于黑白的图像只能觉察出几十种灰度变化,但却能分辨出几百种甚至上千种不同光强的色彩,所以将黑白图像用彩色显示的图像进行处理,是非常有效且实用的。例如,有一幅电灯灯丝图像,已知像素与温度有一定的关系,可利用伪彩色技术来区分不同的温度。如最高温度可用红色表示,较低一些的温度可用绿色表示,最低温度用蓝色表示。经过伪彩色处理后的图像总的信息量保持不变,但是其温度信息对人眼就变得更加直观了。

  伪彩色处理技术有:密度分割法、灰度级到彩色的变换法、滤波法。后两种处理技术实现起来要困难一些,但效果要好得多。由于这些方法介绍较多,这里就不再赘述。

  视频图像的区域处理的技术与方法

  所谓区域处理(简称区处理),是指对成组的多个像素进行处理,经过某种变换处理后,得到图像中某一点的像素值。区处理变换中采用的像素组称为邻域,邻域一般是由像素组成的二维矩阵,该矩阵每一维的大小均为奇数。中心像素(即感兴趣的像素)位于邻域的正中央,变换后中心像素的值将被经过一定算法计算得到的新值所代替。邻域中心像素周围的那些像素值在二维方向上提供了图像的亮度变化趋势信息,在大多数区处理中要用到这些信息。这种亮度变化的趋势信息就是空间频率。空间频率定义为像素的亮度在一定距离上的变化速率。一幅图像空间频率具有垂直和水平两个分量。一幅具有高空间频率的图像通常是在很短的距离内其像素值有急剧变化,如一幅黑白相间的棋盘图像其空间频率就很高,棋盘的方格越小,图像的空间频率就越高。一幅具有低空间频率的图像的像素值通常保持不变或者变化缓慢,如云的图像,其空间频率通常很低。由于区处理能对空间频率信息进行处理,所以区处理可用来减缓或增强图像中某些特定的频率分量。正因为如此,大多数区处理都属于空间滤波器。空间滤波在图像处理中有很多应用,例如,可提取图像特征(边界增强和检测)、进行图像锐化、图像平滑、图像模糊及去除图像中的随机噪声等。

  区域处理使用输入像素中的每个像素值产生输出像素值,典型应用包括离散卷积运算、图像变换、图像滤波、边缘检测等。下面介绍三个区处理算法:卷积、中值滤波和Sobel边缘检测。

  卷积处理

  卷积是一种用途很广的算法,可用卷积来完成各种区处理变换,如低通空间滤波、高通空间滤波、边缘增强、图像模糊等。

  理解卷积的一种最好的方法是将它看做加权求和的过程。邻域中的每个像素(假定邻域为3×3)大小,其卷积核大小与邻域相同(见图2),它分别与卷积核每个元素相乘,乘积求和所得结果为中心像素的新值。卷积核中的元素称为加权系数(亦称为卷积系数),卷积核中的卷积系数的大小及排列顺序决定了对图像数据进行区处理的类型。改变卷积核中的加权系数,会影响到总和的数值与符号,从而影响到所求像素的新值。图2给出了几种不同卷积核及其代表的各种变换,从图中可看出,大多数常用的卷积核都是3×3的,所有卷积核的行数和列数均为奇数,这些格式的卷积核已经成为工业标准,加大卷积核可使卷积处理更为灵活。从应用角度可不考虑构成这些卷积核背后的复杂数学理论,而直接使用这些卷积核,来解决所面临的实际问题。

  低通空间滤波器:低通空间滤波器是一种保留图像低频成分,减少图像高频成分的处理算法。低通空间滤波器可以用来降低图像中的视觉噪声,也可以用来除去图像中的高频成分,以便更好地观察图像的低频成分。这是因为除去图像的高频成分后,图像中的那些不明显的低频变化就更容易识别了。低通空间滤波器的频率截止点由卷积核的大小及卷积系数决定。图3给出了三种不同的低通空间滤波器卷积核。

  应该注意到,所有的低通滤波卷积核,其卷积系数之和均为1,这一点对于理解低通滤波器的工作原理很重要。对图像中没有高频成分的区域来说,这个区域中的像素值应该保持不变或者变化缓慢。当于用一个低通滤波器对这个区域进行卷积时,加权系数与邻域像素分别相乘并求和,即可得到邻域中心像素的新值。如果邻域中所有像素的值都相同(保持恒定不变),则中心像素的新值与原值相同。这就是为什么加权系数和为1的原因,即卷积处理后保留了图像的低频部分。当卷积核移到图像的高频区域时,像素值的任何快速变化经过卷积计算,与邻域中其他像素取平均,这样就降低了高频成分。从视觉效果来看,图像经过低通滤波器处理后,显得有些模糊。这种现象的出现,是由于削弱了图像的高频成分,像素值的突变被平均值所代替的缘故。

  高通空间滤波器:当需要观察图像中具有高频成分的目标时,可采用高通空间滤波器对图像进行处理,处理后的图像中,频率较高的部分更突出了,而频率较低的部分被削弱了。图3给出了3个高频滤波器的卷积核。在高频滤波器中卷积核中心点的值最大的那个卷积系数起着关键的作用。当这个卷积系数经过图像中的高频部分(即灰度值有突变部分)时,由于卷积核中心点卷积系数很大,所以与像素值相乘后,在卷积结果中占了很大的比重(卷积核中除中心点以外其余各负的卷积系数值只是对上述放大效应起一些削弱作用),卷积结果使已有的灰度突变变得更突出。也就是说,经过处理后,图像中像素值间的灰度差得到增强,而对像素值较恒定的区域则保持不变。也就是说,图像中像素值变化不大的区域(低频成分区域)不受此变换的影响。

  拉普拉斯边缘增强:采用卷积方法的另一种区处理就是边缘增强。在对图像进行特征提取之前,一般要进行边缘增强,然后再进行二值化处理,以提取图像特征。边缘增强算法处理的目的是要突出图像的边缘。常用的边缘增强算法之一是拉普拉斯边缘增强算法。

  拉普拉斯边缘增强算法是一种各向同性的增强算法,即其边缘的增强程度与边缘的方向无关。不论图像灰度梯度是正的还是负的,拉普拉斯边缘增强方法都能使边缘得到增强。

  函数f (x,y)拉普拉斯变换的数学表达式为式中,d2f/dx2是f相对于x的二次偏导数,d2f/dy2是f相对于y的二次偏导数。对于离散函数来讲,二次偏导数可近似地用差分表示为

  因此,拉普拉斯变换可近似地表示为

  L{ f(x,y)}=f (x+1,y)+f (x-1,y)+f (x,y+1)+f (x,y-1) -4f (x,y) 5)式(5)等效于一个与f(x,y)进行卷积运算的卷积核。卷积核可写成

  图3中给出了如上所述的卷积核LAP1。


 

  中值滤波

  中值滤波是一种区处理方法,但它不属于卷积。中值滤波也是一种根据邻域中各像素的值来决定中心像素值大小的方法,但它并不需要根据邻域值用算术方法计算出新像素值,而是一种按邻域中的像素排序后的中位像素(即排序后处于正中的那个像素值)作为中心像素新值的方法。

  经过中值滤波后,图像中的随机噪声将被有效地消除。这是因为邻域中亮度值发生随机突变的像素,经过排序后,要么排在队列的队首,要么排在队列的队尾。而中心像素的新值,是取自队列中位的那个像素值。理论与实践证明,许多图像经过中值滤波处理后,都能得到较好的视觉效果。

  Sobel边缘检测法增强

  Sobel边缘检测算法,是一种非线性边缘检测算法,该算法效率很高,而且用途很广。Sobel边缘检测算法中计算两个不同的卷积核,即 


  计算检测出来的边界强度和方向的公式为

  强度 22xy = + ;方向 arctan( / ) yx = (8)用Sobel边缘检测算法对图像中每一个像素进行处理后,得到的输出图像通常还要进行同值化处理。当中心像素新值(即所计算的差值绝对值的最大值)等于或大于给定的阈值时,输出像素为白;小于给定的阈值时,则输出像素为黑。经过Sobel算法和阈值处理后,最后的结果是一幅只包含边缘信息的黑白二值图。

  视频图像的帧处理的技术与方法

  图像的帧处理是用视频信号的前后帧(一帧或多帧)来处理本帧,它广泛应用于视频压缩中,例如运动补偿、帧内插等。

  在静态图像中,哪一个目标是运动的,或者说哪部分图像是目标,并不容易确定。而在视频中,却可以通过分析前后帧变化来确定运动的部分图像或目标。限于篇幅,这里仅讨论基于两帧图像差(即帧差)的目标运动与轨迹探测方法。

  帧差模型分析


 

    相邻帧图像的目标位置变化示意图两帧图像相减的情形如图4所示。一般,可以把图像分成目标和背景两大部分,目标可以是多个,这里只画出了一个。当目标和背景运动时,目标和背景的相对位置和形状就会发生改变。在两帧图像相减时,可以把图像分成几个不同的区域。目标重叠区表示两帧中都有目标内容的区域,目标覆盖区表示该区域在上一帧为背景而本帧为目标的区域,目标暴露区则表示上一帧为目标而本帧为背景的区域,背景重叠区则表示两帧都为背景的区域。当然,也有背景覆盖区和背景暴露区,由于都在图像边缘,位置固定,所以不必单独详细讨论。

  对于运动目标探测,主要讨论目标重叠区、目标覆盖区和目标暴露区的情况。

  在图4中,设目标以速度υm运动,设背景以速度υb运动,它们都是时间t的函数。同时,由于只是平移,图像分布函数的形式不变,只是在位置上发生了变化,在数学函数上表现为位置变量随时间变化。设p0表示原始起点位置,目标图像可以表示为式(9),背景图像可以表示为式(10)。经过时间Δt后,目标和背景图像可以分别表示为式(11)和式(12)。式(9)和式(10)中目标图像是覆盖在背景上的,两者不能在同一区域同时出现,如图4(a)和(b)所示。在以后的讨论中,位置p0和υm, υb都是向量,具有方向属性。

  fm( p,t)=fm( p0+υmt) (9)fb( p,t)=fb( p0+υbt) (10)fm( p,t+Δt) =fm[ p0+υm(t+Δt)] (11)

  fb( p,t+Δt)=fb[ p0+υb(t+Δt)] (12)当图4(a)、(b)两帧图像相减时,其结果在不同的区域,表示式不同。在目标重叠区的结果如式(13)所示,在目标覆盖区的结果如式(14)所示,在目标暴露区的结果如式(15)所示。在背景重叠区的结果如式(16)所示。为了便于讨论,在这些表达式中,设背景和目标图像函数的一阶导数处处存在。

  Δfmm(p,t+Δt)= fm[p0+υm(t+Δt)] fm(p0+υmt)

  = f′m(p0+υmt)•(υm•Δt) (13)

  Δfmb(p,t+Δt)=fm[p0+υm(t+Δt)]fb(p0+υbt) (14)

  = f′m(p0+υmt)•(υm•Δt)+fm(p0+υmt)fb(p0+υbt)

  Δfbm(p,t+Δt)= fb[p0+υb(t+Δt)]fm(p0+υmt)

  = f′b(p0+υbt)•(υb•Δt)+ fb(p0+υbt)fm(p0+υm(15)

  Δfbb(p,t+Δt)= fb[p0+υb(t+Δt)]fb(p0+υbt)

  = f′b ( p0+υbt)•(υb•Δt) (16)

  在目标重叠区和背景重叠区,相减的结果就是各自运动图像的一阶微分与运动速度和时间间隔的乘积。在图像上表现为边缘增强运算,在图像各区域的边界上,出现较大的数值,在灰度缓变区,出现很小的数值。

  在目标覆盖区和目标暴露区,除了微分外,还有目标和背景的差值。只有目标和背景的运动速度(包括方向)完全相同,且在交界处目标和背景的取值(或极限)相等,差值才随时间连续变化,即当Δt→0时,Δf→0。

  目标和背景运动的帧差分析

  下面分别讨论目标和背景在不同的移动速度时,前后两幅图像相减的不同结果。

  背景不动,目标移动:这时帧相减就能很好地探测出目标,且给出目标的运动过程。由于背景图像不变,因此相减后背景区除了随机噪声外,都接近于0。而在目标叠加区,目标图像区的高频信息显示出来。特别是在目标与背景交界处,信息特别明显,这是由于目标与背景在交界处不能保持一阶连续,其差值是较大的。从式(14)和式(15)可以看出,在不同的时刻,[fb( p0+υbt)-fm( p0+υmt)]总有较大的数值。

  目标和背景以不同的速度和方向移动:这时相减结果也可以探测出运动目标,但是有较大的背景噪声。因为背景的高频信息同时显示出来了。如果把相减的结果,再进行一次连续相减,那么在得到的结果中,背景区噪声几乎完全去掉了。这时相当于背景图像的二阶微分运算,因为摄像机得到的图像都是较平滑的,其二阶导数的变化和数值要小得多。实践结果表明,虽然目标信息也有所消弱,但是比背景要强得多。

  仔细分析式(15)和式(16),可以明白其中的道理。这时因为在目标覆盖区和目标暴露区,二次相减只相当于目标图像和背景图像的一阶微分,所以仍能保持较大的数值。即使是运动目标是原背景图像的一部分,从原视频系列中几乎难以发现目标,但通过一次和二次相减后,目标及其运动过程能清晰地显露出来。目标发生多种运动:当目标和背景以不同的速度和方向移动时,这与上一种情况基本相同。差别是由于目标的转动,增加了目标的信息,使目标更为明显。即使在目标和背景移动速度相同或都不运动时,如果目标有转动,相减一般也能得到很好的结果。如果目标是特殊形状(如完全对称的回转体),以特殊形式运动(如以回转体轴线转动),那么前后两帧图像是没有什么差别的,简单相减并不能探测出该目标。这时,就要考虑其他补充信息的探测。


 

  目标轨迹探测的帧差分析

  由上可知,帧差法,即连续视频帧相减法,只是取出了目标的大致区域和范围,目标到底是什么、目标的准确形状等信息,并没有求出。这时,可利用图像分割与描述等来进一步处理与识别。下面分析目标轨迹探测的帧差探测方法。

  帧差法目标运动轨迹探测分析:通过连续图像相减,可以得到前后帧图像的差别,从而得到目标运动信息。在比较好的情况下,背景差别很小而目标差别较大,可以用“质心”求出目标的位置,从而求出目标的运动轨迹。

  设相邻两帧图像相减后的图像矩阵为p(m,n),m=0,1,…,M-1,n=0,1,…,N-1,则图像质心位置是

  中可以看出,求和是对整个图像范围内进行的。当背景为零时,该图像的质心与目标的质心是相同的。因此,求出整个图像的质心,就求出了目标的质心。但在实践应用中,却要复杂得多。首先是背景不为零,则图像的质心与目标的质心不重合。要求出目标的质心,必须先求出目标图像的边界范围。在实时系统中,没有太多时间先求边界,因为求边界和目标判别需要很复杂的运算,所以先求出目标边界范围的方法在许多场合下并不可取。

  在这里,第一步是先对相减后的图像进行一定的统计,把低于某个阈值的像点,取为0,这样可以大大减少背景的影响。但某些高频背景区域难以去掉,虽然人脑可以很快地发现,但计算机不容易实现。上面方法可对单一目标的轨迹进行一定探测,但对多个目标,就不合适了。

  第二步是把图像分区,求出每个区域的质心和质量。经过阈值过滤后,背景区基本可以去掉,显示出多个目标区域的质心变化,从而显示多个目标的运动轨迹。该方法大大改善了目视效果,但是它给出的是一群数据,不能直接应用于绘出运动轨迹和反馈控制。

  第三步是对上面的局部质心进行分类和组合,把相邻的子块连通成一组,求出该组的质心,从而得到一个目标的质心。从物理上讲,多个目标在空间上是分开的,那么他们所占的局部质心在空间也是分开的,这样就求出了各个目标各自的质心。

  把M×N的图像分为Mb×Nb个子块,依次求出(u,v)位置子块的质心位置坐标Xb(u,v),Yb(u,v)和质量Gb(u,v)。设Sb(u,v)是(u,v)位置子块的群组属性值,以子块的平均质量为依据,设定阈值G0,对Sb(u,v)进行分类。当Gb(u,v)小于阈值时,Gb(u,v)和Sb(u,v)置为0,否则给Sb(u,v)分配一个不相重的非0值。进行上述处理后,质量不为0的相邻子块取相同的群组属性值。那么群组属性值相同的子块属于同一群组。最后,以群组为单位,求出该群组内子块的合并质心位置坐标和平均质量,就是每个目标的位置和质量。少数背景变化大的背景区域也可能是一个群组,但是与运动目标的行为有较大的差别,可以通过其他参数剔除。其过程如图5所示。

  运动目标轨迹自动探测与目标和背景的运动分析:当背景不动,单个目标移动时,这时帧相减就能很好地探测出目标。用整体质心和局部综合求质心,都能得到很好的运动轨迹,如图6所示。

  当背景移动,单目标移动和转动时,这时背景有较大的噪声,因此有较大的质量,只用图像整体质心法不能得到目标的正确位置。在图7中,只能基本上探测出目标的运动趋势,不能探测出目标的正确位置。用局部质心综合法,可以正确地探测出目标的位置和运动轨迹。

  当目标和多目标背景以不同的速度和方向移动时,这时背景图像上有多个目标的差别图像,同时还有背景的噪声。从图8中的局部质心图可以看出,许多块有较大的质量,而且分布在多个区域,所以整体质心法不仅不能探测出目标的正确性位置和运动趋势,更无法正确探测出多个目标的情况了。局部质心综合法能够区别多个目标,也能探测出各个目标的位置和运动轨迹。在图上可以看出,特别明显的背景运动轨迹也被描绘出来了。

  当目标和背景运动速度相同时,这时目标和背景合成了一幅图像。通过相减方法,并不能有效地发现目标,因为难以把背景和目标分离。图像整体质心法得到的信息很少,因为背景的质心变化很少。局部质心法可以探测出图像高频边缘移动的位置,但看不出什么趋势。局部质心综合法可以探测出图像高频边缘移动的方向和位置,提供了更多的有价值的信息。

  此外,还有基于图像块的二维运动估算的方法。这种基于块的运动估算和补偿是运动分析最通用的算法。即它把帧图像分成一定大小的图像块,认为每个图像块具有一个唯一的运动向量(即运动的方向和距离)。这样,也就可通过对图像块的运动分析,找出前后帧的图像各部分的对应关系。

  结束语

  以上简要地介绍了视频图像及其处理的基本概念,以及视频图像处理的基本技术与方法,可供安防科技人员借鉴与参考。欲了解详情,可参阅电子工业出版社出版的《光电信息实用技术》与《光电图像处理》,本人也欢迎咨询与讨论。

    【作者单位:武汉乐通光电有限公司高新技术研究所】

声明:

凡文章来源标注为"CPS中安网"的文章版权均为本站所有,如需转载请务必注明出处为"CPS中安网",违反者本网将追究相关法律责任。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

关键词视频监控图像处理安防监控
分享到:

征稿:

为了更好的发挥CPS中安网资讯平台价值,促进诸位自身发展以及业务拓展,更好地为企业及个人提供服务,中安网诚征各类稿件,欢迎有实力安防企业、机构、研究员、行业分析师。投稿邮箱: cps-tougao@cps.com.cn(查看征稿详细)

品牌推荐

排行榜

24小时 本周 本月
论坛热点 最新话题