文档库 最新最全的文档下载
当前位置:文档库 › 视频图像增强算法设计

视频图像增强算法设计

视频图像增强算法设计
视频图像增强算法设计

视频图像增强算法设计

目录引言

1视频图像增强基本原理

1.1视频图像增强概述

1.2图像增强常用方法

1.2.1直方图均衡化

1.2.2拉普拉斯变换及图像锐化

1.2.3同态滤波

2 视频数据流对比度增强组合方法

2.1算法概述

2.2直方图灰度变换

2.3平台直方图均衡化

2.4图像增强组合方法

3可控的视频图像动态对比度增强算法

3.1算法概述

3.2归一化线性直方图数据

3.3归一化的灰度直方图数据

3.4归一化的组合直方图数据

3.5灰度映射输出函数

4视频文本图像增强算法研究

4.1算法概述

4.2文本图像分辨率增强

4.2.1 Shannon插值及其算法改进

4.3文本图像二值化

4.3.1 Niblack二值化

4.3.2改进的Niblack二值化

5实验结果与分析

5.1仿真程序设计

5.1.1直方图灰度变换

5.1.2平台直方图灰度变换

5.1.3归一化线性直方图

5.1.4归一化灰度直方图

5.1.5 Shannon 插值及其改进方法

5.1.6 Niblack二值化方法

5.1.7视频图像增强

5.2 结果分析

结论

致谢

参考文献

附录源程序

随着视频服务的普及,视频图像增强对提高视频服务质量、提高多媒体产品的竞争力具有重要的意义。论文基于视频图像的特点,针对由于曝光不足、曝光过强而造成的视频图像降质现象,探讨了直方图灰度变换与平台直方图均衡结合法和幅度可控的动态对比度增强法等图像对比度增强方法。其中,直方图灰度变换与平台直方图均衡相结合的图像对比度增强方法,以图像序列的时间平稳特征方差为基础,根据直方图灰度变化范围采用不同的图像增强方式。克服了不同场景条件下,单一增强算法的局限性。在图像增强的组合方法中通过引入先前帧处理方式参考功能,避免了由于增强方式的频繁切换而引起的图像闪烁现象。幅度可控的动态对比度增强算法利用一组归一化线性直方图数据和输入图像的归一化灰度直方图数据的结合,实现对输入图像的权重化直方图均衡化处理,进而达到幅度可控的动态对比度增强效果。针对上述几种图像增强算法,利用MATLAB语言给予了仿真实现,给出了具体实验结果,并进行了对比分析,验证了几种算法的有效性。

关键词:

视频图像;图像增强;对比度增强;直方图均衡化;灰度变换

With the popularization of the video services, image enhancement ,which is significant ,to improve the video quality of service, improve the competitiveness of multimedia products.Based on the characteristics of video images for exposure as inadequate or excessive caused by the uneven quality of the video image degradation phenomenon.Thesis discusses several contrast enhancement algorithm such as combination of gray scale transform and plateau histogram equalization and controllable and dynamic contrast enhancement algorithm and so on. The combination of gray scale transform and plateau histogram equalization. According to gray -level changed range of the histogram, one mode of image contrast enhancement is selected based on the analysis of the time domain stabilizing characteristic, the standard deviation of image sequences. With the propose method, the disadvantages in deferent conditions of single enhancement method are overcome. To avoid the wink between images for the different method changed often, the disposal method of current frame makes reference to the disposal method of backward frame. In the controllable and dynamic contrast enhancement algorithm,the weighted histogram equalization for input images is performed by utilizing the combination a group of normalized linear histogram data and the normalized gray histogram data of the input image. The controllable and dynamic contrast enhancement is implemented. With the proposed algorithm,the overenhancement in the traditional histogram equalization can be avoided by controlling the contrast enhancement scope. In view of the above image enhancement algorithm, the use of MATLAB language gives simulation and experimental results are given in detail, and comparison analysis, and verifies the effectiveness of the algorithm.

Key words:

Video Image; Image enhancement; Contrast enhancement ;histogram equalization; Gray scale transform

对比度是衡量显示设备显示质量的一项重要指标,实验证明具有高对比度的标准清晰度电视()

SDTV显示的图像质量与具有较低对比度的高清晰度电视()

HDTV显示的图像质量相当]1[。因此为了提高显示设备的显示效果,增强显示设备的对比度通常是不可缺少的。直方图均衡化是一种重要的对比度增强方法,但其增强效果是不可控的]2[,尤其对于视频信号的显示,其增强效果往往过强导致图像失真。以往的对比度增强方法基本分为两大类。一类是针对图像局部细节增强的,例如自适应或局部直方图均衡化()]4,3[

AHE。为了解决传统直方图均衡化产生的过增强问题,人们,LHE

进而提出了限制对比度自适应直方图均衡化()]5[

CLAHE和受约束的局部直方图均衡化()]6[

CLHE方法。Ji 等人还提出了基于人眼视觉特性的自适应局部对比度增强方法]7[。另一类是针对图像全局信息增强的。例如,Kim]8[等人提出了一种通过对输入图像直方图密度分布函数CDF 分段近似处理,从而实现对比度增强幅度可调的方法。但该方法需要大量的存储空间作为帧缓存器。Cho]9[等人设计的对比度控制器则不需要帧缓存器,但其增强效果简单地近似于全局直方图均衡化。Wu]10[等人设计的一种视频数据流对比度增强组合方法。Wang ]11[等人设计的一种可控的视频图像动态对比度增强算法。Zhao]12[等人设计的视频文本图像增强算法研究。Liu]13[等人设计的数字视频处理芯片中的视频图像增强算法。

1视频图像增强原理

1.1视频图像增强概述

迄今为止,在国内外的图像处理研究领域,已经报道了相当多的图像增强研究工作,产生了不少图像增强方法。总的来说,各种方法都是面向一定范围的应用领域,也具有各自的特点。比如计算机视觉中的景物匹配和飞行器定位系统中的地图匹配,依据其完成的主要功能而被称为目标检测与定位,根据其所采用的算法称之为图像相关等等。

图像增强属于计算机视觉的低层部分,指按特定的需要突出图像中的某些信息,同时削弱或去除某些不需要的信息的处理方法。其主要目的是使处理后的图像对某种特定的应用来说,比原始图像更适用。因此,图像增强是为了某种应用目的而去改善图像质量的,处理的结果使图像更加适合于人的视觉特性或机器的识别系统。图像增强效果的好坏,直接影响图像分割的效果以及高层图像理解的结果。

视频图像增强根据读取的原始图像序列数据,提取图像的运动矢量信息,色彩区域信息,以及噪声分布信息;根据原始图像的运动矢量信息重新构造图像,并将新图像数据与图像的运动矢量信息,色彩区域信息,以及噪声分布信息传入色彩处理器;细节边缘增强处理器;去噪处理器;根据计算出经过边缘增强的图像数据和去噪后的图像数据和色彩增强后的数据得出最后的处理数据。利用运动估计与运动补偿的方法去有效的恢复图像细节,增强色彩及去除图像噪声。

目前随着视频服务的普及,视频图像增强对提高视频服务质量、提高多媒体产品的竞争力具有重要的意义。针对由于曝光不足、曝光过强或曝光不均

而造成的视频图像质量的下降,通常采用基于曝光补偿的图像质量增强算法,可以得到令人满意的效果。针对视频图像对比度低的缺点,通常采用直方图均衡是的方法来提高图像的对比度。但是直方图均衡算法不关心位置信息,不考虑像素间的相关性,不管像素是景物产生的还是噪声带来的,在提高图像对比度的同时,也放大了噪声。对于直方图均衡的这个缺点,可以采用直方图均衡和时空混合高斯滤波相结合的方法来进行视频增强。同时,随着硬件性能的不断提高,以及各种快速算法的提出,一些复杂度很高的图像增强算法开始从仿真向硬件迈进。典型的快速算法有基于快速小波变换的图像增强算法,基于神经网络的模糊图像增强算法等。

1.2视频图像增强常用方法

视频图像在生成、获取、传输等过程中,由于种种因素而使图像的质量降低,不利于人们的判断和分析。视频图像增强的目的,就是为了改善图像质量,获得更适合于人眼观察,或者后续讨算机处理分析更有利的图像。视频图像增强的方法很多,这里主要对用于对比度增强的直方图均衡化、拉普拉斯变化及锐化、同态滤波等方法进行简要介绍。 1.2.1直方图均衡化

图像直方图是图像处理中一种十分重要的图像分析工具,它所描述的是数字图像中各灰度级与其出现频率问的统计关系。在数学意义上,图像直方图是图像各灰度级统计特性与图像灰度级的函数,它反映的足一幅图像中各个灰度级出现的次数或概率:设数字图像的灰度级范围为[0,L-1],其直方图为离散函数()k k n r h =。这里,;1,...,1,0-=L k k r 是第k 级灰度,k n 是图像中灰度级为k r 的象素个数。一个归一化的直方图,由()n n r P i k /=给出。简单地说,()

k r P

给出了灰度级为k r 出现的概率估计值。从图形上来说,直方图是一个二维图,横坐标表示图像中各个像素点的灰度级,纵坐标为各个灰度级上图像象素点出现的次数或概率。

图像对比度增强的方法可以分成两类:一类是直接对比度增强方法;另 一类是间接对比度增强方法。直方图拉伸和直方图均衡化是两种展常见的问 接对比度增强方法。直方图拉伸是通过对比度拉伸对直方图进行调整,从而 扩大前景和背景灰度的差别,以达到增强对比度的目的,这种方法可以利用 线性或非线性的方法来实现;直方图均衡化则通过使用累积函数对灰度值进 行调整以实现对比度的增强,具体为:

直方图均衡化就是把给定图像的宜方图分布改变成均匀分佃直方图分布。根据直方图的定义,一幅图像的灰度级r 可被视为区间[0,1]内的随机变 量,可以定义变换函数:

()r T s = 10≤≤r (1-1)

使函数()121--满足以下条件:

1)()r T 在区间10≤≤r 中为单值且单调递增 2)当10≤≤r 时,()10≤≤r T 1.2.2拉普拉斯变换及图像锐化

拉普拉斯算子是最简单的各向同性微分算子,具有旋转不变性。一个二维图像函数()y x f ,的拉普拉斯变换定义为:

22222

y

f

x f f ??+??=? (1-2)

该方程的离散形式为:

()()()()y x f y x f y x f y x f y x f f ,4]1,1,),1(,1[2--+++-++=? (1-3)

图1给出了拉普拉斯变化的模板算子,图2给出了其扩展模板算子。

图1 拉普拉斯变化的模板算子

图2 扩展模板算子

拉普拉斯算予对于边缘是敏感的。一般增强技术对于陡峭的边缘和缓慢变化的边缘很难确定其边缘线的位置。此算子却可用二次微分正峰和负峰之 间的过零点来确定。从公式(1-2)可以看出此算子对孤立点或端点更为敏感,因此特别适用于以突出图像中的孤立点、孤立线或线端点为目的的场合。

图像锐化处理的作用是使灰度反差增强,从而使模糊图像变得更加清 晰。图像模糊的实质就是图像受到平均运算或积分运算,因此可以对图像进 行逆运算,如微分运算以突出图像细节使图像变得更为清晰。

由于拉普拉斯是一种微分算子,它的应用可增强图像中默度突变的区 域,减弱灰度的慢变化区域。因此,锐化处理可选择拉普拉斯算j 子对原图像 进行处理产生描述灰度突变的图像,再将拉普拉斯图像与原始图像叠加而产 生锐化图像。拉普拉斯锐化的基本方法可以由下式表示:

()()()y x f y x f y x g ,,,2?-= (1-4)

这种简单的锐化方法既可以产生拉普拉斯锐化处理的效果,同时又能保留背景信息:将原始图像叠加到拉普拉斯变换的处理结果中去,可以使图像

中的各灰度值得到保留、灰度突变处的对比度得到增强,最终结果是在保留图像背景的前提下,突现出图像中小的细节。 1.2.3同态滤波

同态滤波处理方法利用图像的光照特征,减少光照不均匀对对比度增强产生的影响。同态滤波的理论基础是照度——反射模型,该模型将图像看成是照度和反射两部分的乘积:

()()()y x r y x i y x f ,,,= (1-5)

同态滤波主要是利用照度——反射模型对图像进行频域处理,并通过灰成 范围的压缩和对比度增强来改进一幅图像的外观。 对式(1-5)两边取对数,得:

()()()y x r y x i y x f ,ln ,ln ,ln += (1-6)

再进行傅:立叶变换:

()()()v u F v u F v u Z r s ,,,+= (1-7) 借助滤波函数()v u H ,对频域函数()v u Z ,进行处理,得:

()()()()()()()v u F v u H v u F v u H v u Z v u H v u S r s ,,,,,,,+== (1-8) 对S 进行反傅立时变换可得:

()()()y x r y x f y x s ,,,+= (1-9) 最后,对上式进行取指数运算就能产生符合要求的增强图像()y x g ,:

()()()()()y x r y x i e e y x g o o y x r y x f ,,,,,== (1-10)

图像照射分量通常具有空间域的慢变化特征,而反射分量往往引起突变,特别在不同物体的连接部分。这些特性导致图像对数的傅立叶变换的低频成分与照度相联系,而高频成分与反射相联系。虽然这些联系只是在大体上的

近似,但它们在图像增强上的应用十分有效。

我们可以利用同态滤波的处理模式对照射分量和反射分量分别进行减弱和增强处理来实现对原图像的对比度增强。这些处理则依赖于选取一个合理的滤波函数()v u H ,。以下给出的一种常用的高通滤波函数的形式被证明是很有效的:

()()()()

L D v u D

c L H o e v u H γγγ+--=-]1[,22

, (1-11)

这里,()v u D ,2是点()v u ,到傅立时变换原点的距离,常数c 则是控制滤波器函数锐化效果的参数,c 的范围在L γ与H γ之间。

2视频数据流对比度增强组合方法

2.1视频数据流对比度增强概述[10]

在成像观测系统中,为了改善视频图像的视觉效果、提高视频图像对比度突出、目标常采用一系列图像增强技术。图像增强方法常用的有直方图均衡、直方图规定化、直方图灰度变换等。直方图规定化实际中很难准确提取目标特征制定最佳的特定直方图。用直方图均衡对视频图像进行增强处理,可使图像反差增大但常会导致背景和噪声的对比度提高,而降低了目标的对比度。当图像由于成像曝光不足或过度时,由于成像设备的非线性或视频图像记录设备动态范围太窄等因素,会产生对比度不足的弊病,使视频图像中细节分辨不清。这时如将图像灰度线性扩展,常能显著改善图像的主观质量。而在视频图像中人们感兴趣的是整幅图像的显示效果,而不仅限于图像的目标显示,当图像灰度变化较大,直方图分布较广时采用直方图灰度变换无法有效提高整幅图像对比度。

Virigil E.Vichers提出了平台直方图算法来克服直方图均衡化算法的不足,提高图像显示效果。但当视频图像灰度变化范围较窄时也会产生与直方图均衡化同样的问题,显著降低图像灰度级数,无法突出图像细节。本文提出了一种直方图灰度变换与平台直方图均衡相结合的方法在实际应用中可有效的增强图像对比度,最大限度地保留了目标的细节。

2.2直方图灰度变换

直方图变换常采用三段线性灰度拉伸方法。将整幅图像根据分段点分为背景段、过渡段和目标段,图3是分三段进行灰度变换的示意图。

图3 灰度变换示意图

直方图灰度变换的关系式为:

()()()()()()()()()()()()?????

????-=--=≤≤+-=--=≤≤+-=≤≤+≡2

3232323332331

2121212221221111111;/;,;b y x,;/;,;b y x,/b g ;,0;b ,,f k g b f f g g k f y x f f f k f k g b f f g g k f y x f f f k f k f y x f y x f k y x g

(2-1)

如果令,1k 1,1321>=<,k k 变换可使背景段灰度值在[0,f1]中像素的灰度差被压缩,使过渡段灰度值在[f1,f2]中像素的灰度差保持不变,而使目标段灰度值在[f2,f3]中像素的灰度差被扩展可以达到抑制背景段,保持过渡段,拉伸目标段的效果, 增强了感兴趣的目标区域。

2.3平台直方图均衡化

平台直方图通过选择一个合适的平台阈值T,对统计直方图进行修正。如果某灰度级的直方图值大于平台阈值T ,将其直方图值置为T ; 如果其直方图值小于平台阈值T ,就保持不变。

()()()()??

?

??>≤=T k P T ;T

k P k P P ;k T

(2-2)

式中 表示图像的灰度级,2550≤≤k ;是图像的平台直方图;是图像的统计直方图;T 为平台阈值。

平台直方图均衡化与直方图均衡化相似,计算灰度级 出现的概率()k P 为:

()()()∑==1

-L 0i T i /k P T P k P

(2-3)

由此可得平台直方图均衡化变换函数,即图像的灰度累积分布函数为:

()()()∑∑∑-=====1

L 0

i T k

j T k

j i P /j P k P k S

(2-5)

灰度变换表表示为:

()]/255[,255S S y x g k =

(2-6)

平台直方图均衡化过程如下: (1)计算原图像的平台阈值T; (2)计算平台直方图()k P T ;

(3)计算灰度累积分布函数k S ,进一步求出灰度变换表; (4)根据灰度变换表将原图像各灰度级映射为新的灰度级.

2.4图像增强组合方法

由于采用直方图灰度变换,当图像灰度变化较大,直方图分布较广时无法有效提高整幅图像对比度。采用平台直方图均衡化,当视频图像灰度变化范围较窄时造成图像灰度级数显著降低,无法突出图像细节。针对以上问题,提出图像增强组合方法将直方图灰度变换与平台直方图均衡化相结合,根据图像灰度特征及前面帧视频图像处理方式采用合理的图像增强方式。

3可控视频图像动态对比度增强算法[11]

3.1算法概述

本文针对视频图像信号的显示 ,提出了一种新颖的对比度增强算法。该算法利用一组归一化线性直方图数据和输入图像的归一化灰度直方图数据的结合 ,实现对输入图像的权重化直方图均衡化处理 ,进而达到幅度可控的动态对比度增强效果。本文算法可以通过控制对比度增强幅度来避免传统直方图均衡化产生的过增强现象。将基于本文算法的实时图像处理器应用于50 英寸AC PDP 上 ,实验结果表明 ,其对比度获得显著提升 ,并且能够根据外部接口的调节实现幅度可控的对比度增强效果。

3.2归一化线性直方图

考虑如下一组数据,

()()1/1-=i l H k P

1,.......,0-=i H k (3-1)

式中i H 表示输入图像的灰度级范围。定义()k P l 为归一化直方图数据。对其进行直方图均衡化处理,则

()()()∑=-=k

j l i j P H k G 01

1,.......,0-=i H k (3-2)

将()k P l 代入式(3-2)中可得

()k k G l =

1,.......,0-=i H k (3-3)

由式(3-3)可以明显地看出 ,如果利用这组()k P l 直方图数据对任意输入图像 进行直方图均衡化处理 ,获得的映射输出数据就是原始图像本身 ,即原始图 像的直通。

3.3归一化灰度直方图

根据每帧输入的图像数据进行灰度直方图统计 ,获得每级灰度的像素个数 j n ,再由下式计算得到归一化的灰度直方图数据。

()N

n j P j =

1,.......0-=i H j (3-4)

式中()j P 表示灰度级 j 对应的灰度分布概率密度,也是我们需要的归一化灰度直方图数据;j n 表示灰度级 j 对应的像素数; N 表示输入图像的总像素数。

3.4归一化组合直方图

给定对比度增强幅度为()10≤≤r r C C , 该参数可以通过外部接口控制 ,从而实现对比度增强幅度的可控化。则归一化的组合直方图数据可由下式得到

()()()()r l r c C k P C k P k P -+=1

1,.......,0-=i H k (3-5)

式中 ()k P c 表示灰度级 k 对应的归一化组合直方图数据; ()k P 表示灰度级 k 对应的归一化灰度直方图数据; ()k P l 表示灰度级 k 对应的归一化线性直方图数据。

3.5灰度映射输出函数

与传统的直方图均衡化一样 ,最终的灰度映射输出函数采用对归一化的组合直方图数据累积得到。

()()()∑=-=k

j c i o j P H k G 01

1,.......,0-=i H k (3-6)

式中 ()k G o 表示输入灰度级 k 对应的映射输出灰度级; ()j P c 表示灰度级 j 对应的归一化组合直方图数据。 将式(3-5)代入式(3-6)中可得

()()()()()()∑∑==--+-=k

j l i r k j i r o j P H C j P H C k G 0

111

1,.......,0-=i H k (3-7)

由式(3-7)可以明显地看出 ,本算法引进归一化线性直方图数据的目的是为了实现对传统直方图均衡的权重化处理。例如,当0=r C 时,映射输出数据即为原始图像数据;当1=r C 时,映射输出数据为传统的直方图均衡化处理结果;当

1C 0r <<时,映射输出数据会随着r C 的增大而逐渐获得越来越强的对比度增强

效果。即可以通过对比度增强幅度r C (或称直方图均衡化权值),有效地控制传统直方图均衡化对输入图像的处理程度,进而实现对比度增强的可控化。

4视频文本图像增强算法[12]

4.1算法概述

随着多媒体技术的发展和网络数据量的巨大增长,视频检索已经越来越引起人们的重视,在基于内容的视频检索技术中,图像文本是重要的索引内容。但是视频中截取的图片大多数情况下分辨率很低,质量很差,其中的文本信息很难被大多数商业OCR(OpticalCharacterRecognition )光学字符辨识,软件识别。 因此在识别前必须先对文本图像进行增强处理, 主要包括两个任务:第一分辨率增强,即通过某些方法对图像的分辨率进行调整使图像的分辨率更高,更容易识别。第二文本提取,即把文本从图象的复杂的背景中提取出来,得到高对比度图像。

4.2文本图像的分辨率增强

OCR 软件对输入数字图像的要求很高,对图片大小和分辨率都有一定的限制,此处的分辨率是指每个汉字占据区域的像素数。 视频中提取的文字一般分辨率比较低,如果没有对文本图像进行放大,分辨率增强处理, 识别率基本上是0。因此在OCR 识别之前,为了达到理想的识别率,要对图像进行增强处理,而这一图像增强的过程是通过插值来实现的。 4.2.1 Shannon 插值及其算法改进

Shannon 插值方法是一种图像放大增强方案 以下就是香农插值公式的具体形式:

()()()∑∑==--=m

x n

y y Y x X c y x f Y X F 11,sin ,,

(4-1)

其中,()()()y

Y y Y x X x X y Y x X c --+--=

--sin sin ,sin (4-2)

当X=x 时,()1sin =--x

X x X (4-3) 当Y=y 时,

()1sin =--y

Y y Y (4-4)

其中,变量x 为待变化图像的横坐标, 变量y 为待变化图像的纵坐标 m 为待变化图像的宽度 n 为待变化图像的长度()y x f ,为待变化图像的x ,y 点处的灰度值X 为新图像的横坐标Y 为新图像的纵坐标()Y X F ,为变化后图像的X ,Y 点的灰度值。

Shannon 插值公式的优点,通过后面的效果对比可以看到完全体现在图像增强的效果上。但是也有缺点,就是效率问题由于公式的计算量太大,导致在速度上显得比较慢, 为了克服这一缺点。

本文对香农插值公式作了一些改动 ,即m ,n 的取值不再是整幅图像范围而是将这个范围取得小一些 。比如只取几个像素的临域的时候,计算量就会小很多,而且在效果上也是非常不错的。 因此,对于m ,n 的选择 本文通过实验对比,最终选择了一个以所需计算的点为中心的一个7*7 的临域。即只选择了7*7个点进行累加计算,这样计算量小了很多,达到了所能够接受的运算速度,而且效果上也很好。

Shannon 为了显示用插值进行图像放大增强的优越性,本文还实现了几种传统插值方法如零阶插值和二线性插值等来进行对比。

4.3文本图像二值化

在完成了插值工作后,得到了效果比较理想的图像。 接下得到所希望来的工作就是把图像中的文本从背景中分离出来的高对比度图像, 而这一过程是通过图像二值化来实现的。对图像的二值化,关键部分就在于阈值的选取

图像增强算法综述

图像增强算法研究综述 刘璐璐 宁波工程学院电子与信息工程学院计算机科学与技术071班,邮编:(315100) E-mail:375212239@https://www.wendangku.net/doc/a47770073.html, 摘要:本文简要介绍图像增强的概念和图像增强算法的分类,从图像的直方图均衡化处理方法,直方图规定化处理方法和图像平滑处理方法三方面对图像增强算法进行讨论和研究,并说明了图像增强技术的应用和前景展望。 关键词:图像增强直方图均衡化直方图规定化平滑处理 近年来,随着电子计算机技术的进步,计算机图像处理得到了飞跃的发展,己经成功的应用于几乎所有与成像有关的领域,并正发挥着相当重要的作用。它利用计算机对数字图像进行系列操作,从而获得某种预期的结果。对图像进行处理时,经常运用图像增强技术以改善图像的质量增强对某种信息的辨识能力,以更好的应用于现代各种科技领域,图像增强技术的快速发展同它的广泛应用是分不开的,发展的动力来自稳定涌现的新的应用,我们可以预料,在未来社会中图像增强技术将会发挥更为重要的作用。在图像处理过程中,图像增强是十分重要的一个环节。 1.图像增强概念及现实应用 1.1 图像增强技术 图像增强是数字图像处理的基本内容之一。图像增强是指按特定的需要突出一幅图像中的某些信息,同时,削弱或去除某些不需要的信息。这类处理是为了某种应用目的去改善图像质量,处理的结果更适合于人的视觉特性或机器识别系统,图像增强处理并不能增加原始图像的信息,而只能增强对某种信息的辨识能力,使处理后的图像对某些特定的应用比原来的图像更加有效。 1.2图像增强技术的现实应用 目前,图像增强处理技术的应用己经渗透到医学诊断、航空航天、军事侦察、纹识别、无损探伤、卫星图片的处理等领域,在国民经济中发挥越来越大的作用。其中最典型的应用主要体现以下方面。 1

彩色图像分割介绍

第一章绪论 计算机图像处理在医学领域的应用越来越广泛,白细胞图像的自动判断就是其中的代表之一。它能有效地减少主观干扰,提高工作效率,减轻医生负担。近些年来,计算机硬件技术和光谱成像技术的飞速发展,使得成功研制开发出小型实用的基于多光谱的白细胞图像自动分类识别系统成为可能。 本文研究的主要目的在于对白细胞多光谱图像分割进行初步的探索研究,为系统中其后的白细胞能够准确地分类识别奠定基础。 本章简要阐述了基于多光谱的白细胞图像分割的应用背景和研究意义,回顾了国内外细胞图像分割和多光谱遥感图像分类的研究发展状况,并简要介绍了本论文的主要工作。 §1.1 概述 §1.1.1 白细胞检验 白细胞的光学显微镜检查是医院临床检验项目之一,特别是对各种血液病的诊断占有极其重要的地位。它的任务是观察或测定血液中的各种白细胞的总数、相对比值、形态等,用于判断有无疾病、疾病种类以及严重程度等,特别是对类似白血病这类血液病诊断具有更加重要的意义。 白细胞分类计数的传统方法是将血液制成涂片,染色后,临床医生在显微镜下用肉眼按照有关标准,如核的形状、细胞浆的量和颜色,细胞浆颗粒的大小和颜色,整个细胞形状、稀薄与细胞间的接触等,来观察和检查这样的细胞标本[1]。然而这项工作十分繁重,工作效率低,容易误判,且人工识别误差随检查人员而异。同时通过观察的细胞数目较少,从统计的角度看,因样本集较小而影响诊断结果的可靠性。 计算机图像处理与分析技术伴随着信息技术的不断进步在最近20年间得到了飞速的发展,已经迅速渗透到人类生活和社会发展的各个方面,这为智能化细胞分析仪代替人工方法提供了基础。因此,借助于现代计算机技术结合临床医生的实践经验,采用图像处理技术对图像进行处理,从而对细胞进行识别,对于医学科研与实践,以及临床诊断方面有着现实意义和非常广阔的前景。 目前已经制成的自动白细胞分析仪主要有两种类型: 一类是用组织化学染色法,通过连续流动的系统,以光电效应的方式分别数出单一细胞,并可同时报告白细胞总数、各类细胞的百分率和绝对值。因为该法不是由细胞形态学特点识别各类白细胞,所以不能目视观察白细胞形态,亦不能保留样本,对感染中毒细胞无法识别。 另一类是原型认定型,其工作原理模仿人“脑眼系统”[2]的智能识别过程,运用计算机图像处理和模式识别技术,将从显微镜与相机或摄像机得到的数字化图像进行自动处理分析和分类。与前一种类型的白细胞分类仪器相比,其主要优

视频会议视频调试技术与技巧

视频会议视频调试技术与技巧 视频会议是图像、声音的有机结合,为了获得理想的效果,必须按照操作规程做好前期的准备和调试工作。在实际应用中还有许多不尽人意的地方,主要表现在参数设置和实际操作等方面。如何做到心中有数、得心应手?本文就相关技术问题进行探讨,提出不同的解决方法和应用技巧。在视频调试过程中,常见的问题是图像无彩色和图像偏色。对于图像无彩色现象,可通过会议终端控制软件中的参数设置来加以解决;对于图像偏色现象,要通过白 视频会议是图像、声音的有机结合,为了获得理想的效果,必须按照操作规程做好前期的准备和调试工作。在实际应用中还有许多不尽人意的地方,主要表现在参数设置和实际操作等方面。如何做到心中有数、得心应手?本文就相关技术问题进行探讨,提出不同的解决方法和应用技巧。 在视频调试过程中,常见的问题是图像无彩色和图像偏色。对于图像无彩色现象,可通过会议终端控制软件中的参数设置来加以解决;对于图像偏色现象,要通过白平衡调整来校正因光源的色温变化而引起的图像偏色。会场中应避免使用混合光(室内照明光源、室外阳光的直射和散射)作为照明光源,不同色温的光源混合使用,将得不到理想的色彩还原,因此要尽量避免在会场中存在两种以上不同色温的光源。若使用视频会议摄像机,可通过重启的方法加以排除;若使用专业摄像机,可通过白平衡调整来加以解决,具体方法是:根据会场照明光源的色温选择合适的色温滤色片,采用自动白平衡调整,以保证准确的色彩还原。 在召开会议期间,要显示各地分会场的画面,若分会场采用“推”、“拉”、“摇”技巧来拍摄,存在问题的具体表现为运动画面不连贯、运动速度不均匀、落幅画面不到位。“推”是把视线逐渐接近被摄对象,由整体引向局部,突出整体中的某一部分;“拉”是由局部引向整体,说明某一局部所处的环境;“摇”分为左摇和右摇。“推”和“拉”是在同一镜头内包含有特写、近景、中景、全景画面,强调落幅,因此落幅的画面构图尤其重要,这是衡量画面是否到位的标准。不论采用哪种拍摄技巧,都要确保画面的稳定性和连续性,都要以稳定的画面作为起幅,并以稳定的画面作为落幅,并要有足够长的时间来保证画面的相对静止,这是人们心理要求和镜头组接所需要的。无目的地急推、急拉、突然变速、中途停止等,都会使观众造成视觉感受异常和动荡不安的感觉,其主要原因是操作失误和画面延滞效应所造成的。 对于采用会议终端控制软件进行控制的,要采用手动方式进行。比如,若要进行“推”(或拉)的动作,先构好落幅的画面,然后“拉”(或推)到全景,当总控室切换到本端的画面后,再按下鼠标,在落幅处松开鼠标;若要进行“摇”的动作,先构好落幅的画面,当总控室切换到本端的画面后,再按下鼠标进行左摇或右摇,在落幅处松开鼠标。但在实际操作中,由于摄像机的机位所限制,“摇”动作的落幅画面不太理想。对于采用专业摄像机控制的,要采用电动变焦方式进行,按下T(推)或W(拉)即可完成所需要的拍摄技巧。由于按压变焦钮

基于matlab的图像去雾算法详细讲解与实现-附matlab实现源代码

本文主要介绍基于Retinex理论的雾霭天气图像增强及其实现。并通过编写两个程序来实现图像的去雾功能。 1 Rentinex理论 Retinex(视网膜“Retina”和大脑皮层“Cortex”的缩写)理论是一种建立在科学实验和科学分析基础上的基于人类视觉系统(Human Visual System)的图像增强理论。该算法的基本原理模型最早是由Edwin Land(埃德温?兰德)于1971年提出的一种被称为的色彩的理论,并在颜色恒常性的基础上提出的一种图像增强方法。Retinex 理论的基本容是物体的颜色是由物体对长波(红)、中波(绿)和短波(蓝)光线的反射能力决定的,而不是由反射光强度的绝对值决定的;物体的色彩不受光照非均性的影响,具有一致性,即Retinex理论是以色感一致性(颜色恒常性)为基础的。 根据Edwin Land提出的理论,一幅给定的图像S(x,y)分解成两幅不同的图像:反射物体图像R(x,y)和入射光图像L(x,y),其原理示意图如图8.3-1所示。 图-1 Retinex理论示意图 对于观察图像S中的每个点(x,y),用公式可以表示为: S(x,y)=R(x,y)×L(x,y) (1.3.1) 实际上,Retinex理论就是通过图像S来得到物体的反射性质R,也就是去除了入射光L的性质从而得到物体原本该有的样子。 2 基于Retinex理论的图像增强的基本步骤 步骤一: 利用取对数的方法将照射光分量和反射光分量分离,即: S'(x, y)=r(x, y)+l(x, y)=log(R(x, y))+log(L(x, y)); 步骤二:用高斯模板对原图像做卷积,即相当于对原图像做低通滤波,得到低通滤波后的图像D(x,y),F(x, y)表示高斯滤波函数: D(x, y)=S(x, y) *F(x, y); 步骤三:在对数域中,用原图像减去低通滤波后的图像,得到高频增强的图像G (x, y):

视频采集系统

数字图象处理技术在电子通信与信息处理领域得到了广泛的应用,设计一种功能灵活、使用方便、便于嵌入到监控系统中的视频信号采集电路具有重要的实用意义。 在研究基于DSP的视频监控系统时,考虑到高速实时处理及实用化两方面的具体要求,需要开发一种具有高速、高集成度等特点的视频图象信号采集监控系统,为此监控系统采用专用视频解码芯片和复杂可编程逻辑器件(CPLD)构成前端图象采集部分。设计上采用专用视频解码芯片,以CPLD器件作为控制单元和外围接口,以FIFO为缓存结构,能够有效地实现视频信号的采集与读取的高速并行,具有整体电路简单、可靠性高、集成度高、接口方便等优点,无需更改硬件电路,就可以应用于各种视频信号处理监控系统中。使得原来非常复杂的电路设计得到了极大的简化,并且使原来纯硬件的设计,变成软件和硬件的混合设计,使整个监控系统的设计增加柔韧性。 1 监控系统硬件平台结构 监控系统平台硬件结构如图1所示。整个监控系统分为两部分,分别是图象采集监控系统和基于DSP主监控系统。前者是一个基于SAA7110A/SAA7110视频解码芯片,由复杂可编程逻辑芯片CPLD实现精确采样的高速视频采集监控系统;后者是通用数字信号处理监控系统,它主要包括:64K WORD程序存储器、64K WORD数据存储器、DSP、时钟产生电路、串行接口及相应的电平转换电路等。 监控系统的工作流程是,首先由图象采集监控系统按QCIF格式精确采集指定区域的视频图象数据,暂存于帧存储器FIFO中;由DSP将暂存于FIFO中的数据读入DSP的数据存储器中,与原先的几帧图象数据一起进行基于H.263的视频数据压缩;然后由DSP将压缩后的视频数据平滑地从串行接口输出,由普通MODEM或ADSL MODEM传送到远端的监控中心,监控中心的PC机收到数据后进行相应的解码,并将还原后的视频图象进行显示或进行基于WEB的广播。 2 视频信号采集监控系统 2.1 视频信号采集监控系统的基本特性 一般的视频信号采集监控系统一般由视频信号经箝位放大、同步信号分离、亮度/色度信号分离和A/D变换等部分组成,采样数据按照一定的时序和总线要求,输出到数据总线上,从而完成视频信号的解码,图中的存储器作为帧采样缓冲存储器,可以适应不同总线、输出格式和时序要求的总线接口。 视频信号采集监控系统是高速数据采集监控系统的一个特例。过去的视频信号采集监控系统采用小规模数字和模拟器件,来实现高速运算放大、同步信号分离、亮度/色度信号分离、高速A/D变换、锁相环、时序逻辑控制等电路的功能。但由于监控系统的采样频率和工作时钟高达数十兆赫兹,且器件集成度低,布线复杂,级间和器件间耦合干扰大,因此开发和调试都十分困难;另一方面,为达到精确采样的目的,采样时钟需要和输人的视频信号构成同步关系,因而,利用分离出来的同步信号和监控系统采样时钟进行锁相,产生精确同步的采样时钟,成为设计和调试过程中的另一个难点。同时,通过实现亮度、色度、对比度、视频前级放大增益的可编程控制,达到视频信号采集的智能化,又是以往监控系统难以完成的。关于这一点,在监控系统初期开发过程中已有深切体会[1]。 基于以上考虑,本监控系统采用了SAA7110A作为视频监控系统的输入前端视频采样处理器。 2.2 视频图象采集监控系统设计 SAA7110/SAA7110A是高集成度、功能完善的大规模视频解码集成电路[2]。它采用PLCC68封装,内部集成了视频信号采样所需的2个8bit模/数转换器,时钟产生电路和亮度、对比度、饱和度控制等外围电路,用它来替代原来的分立电路,极大地减小监控系统设计的工作量,并通过内置的大量功能电路和控制寄存器来实现功能的灵活配置。

图像分割算法研究与实现

中北大学 课程设计说明书 学生姓名:梁一才学号:10050644X30 学院:信息商务学院 专业:电子信息工程 题目:信息处理综合实践: 图像分割算法研究与实现 指导教师:陈平职称: 副教授 2013 年 12 月 15 日

中北大学 课程设计任务书 13/14 学年第一学期 学院:信息商务学院 专业:电子信息工程 学生姓名:焦晶晶学号:10050644X07 学生姓名:郑晓峰学号:10050644X22 学生姓名:梁一才学号:10050644X30 课程设计题目:信息处理综合实践: 图像分割算法研究与实现 起迄日期:2013年12月16日~2013年12月27日课程设计地点:电子信息科学与技术专业实验室指导教师:陈平 系主任:王浩全 下达任务书日期: 2013 年12月15 日

课程设计任务书 1.设计目的: 1、通过本课程设计的学习,学生将复习所学的专业知识,使课堂学习的理论知识应用于实践,通过本课程设计的实践使学生具有一定的实践操作能力; 2、掌握Matlab使用方法,能熟练运用该软件设计并完成相应的信息处理; 3、通过图像处理实践的课程设计,掌握设计图像处理软件系统的思维方法和基本开发过程。 2.设计内容和要求(包括原始数据、技术参数、条件、设计要求等): (1)编程实现分水岭算法的图像分割; (2)编程实现区域分裂合并法; (3)对比分析两种分割算法的分割效果; (4)要求每位学生进行查阅相关资料,并写出自己的报告。注意每个学生的报告要有所侧重,写出自己所做的内容。 3.设计工作任务及工作量的要求〔包括课程设计计算说明书(论文)、图纸、实物样品等〕: 每个同学独立完成自己的任务,每人写一份设计报告,在课程设计论文中写明自己设计的部分,给出设计结果。

网络摄像机各种视频压缩格式的比较

网络摄像机各种视频压缩格式的比较 网络摄像机和视频服务器作为网络应用的新型产品,适应网络传输的要求也必然成为产品开发的重要因素,而这其中视频图像的技术又成为关键。在目前中国网络摄像机和视频服务器的产品市场上,各种压缩技术百花齐放,且各有优势,为用户提供了很大的选择空间。 JPEG 、M-JPEG 有相当一部分国内外网络摄像机和视频服务器都是采用JPEG,Motion-JPEG压缩技术,JPEG、M-JPEG采用的是帧内压缩方式,图像清晰、稳定,适于视频编辑,而且可以灵活设置每路的视频清晰度和压缩帧数。另外,因其压缩后的格式可以读取单一画面,因此可以任意剪接,特别适用与安防取证的用途。 Wavelet Transform 小波变换也属于帧内压缩技术,由于这种压缩方式移除了图像的高频成分,仅保留单帧图像信号,特别适用于画面变更频繁的场合,且压缩比也得到了一定的提高,因此也被一些网络摄像机和视频服务器所采用,例如,BOSCH推出的NetCam-4系列数字网络摄像机,深圳缔佳生产的NETCAM系列网络摄像机等。

H.263 H.263 是一个较为成熟的标准,它是帧间预测和变换编码的混合算法,压缩比较高,尤其适用低带宽上传输活动视频。采用H.263技术生产的网络型产品,其成本较为适中,软/硬件丰富,适合集中监控数量较多的需求,如深圳大学通信技术研究所开发的SF-10网络摄像机和SF-20视频服务器,深圳新文鼎开发的W750视频服务器和W74GM网络摄像机等采用的都是这一压缩技术。 MPEG-4 MPEG -4的着眼点在于解决低带宽上音视频的传输问题,在164KHZ 的带宽上,MPEG-4平均可传5-7帧/秒。采用MPEG-4压缩技术的网络型产品可使用带宽较低的网络,如PSTN,ISDN,ADSL等,大大节省了网络费用。另外,MPEG-4的最高分辨率可达720×576,接近DVD画面效果,基于图像压缩的模式决定了它对运动物体可以保证有良好的清晰度。MPEG-4所有的这些优点,使它成为当前网络产品生产厂商开发的重要趋势之一。 另外,也有部分厂商采用的是MPEG-1,MPEG-2压缩格式,除此之外,有的厂商还采用多种压缩技术相结合的方式,例如,有些国外推出的网络摄像机,其压缩方式就是MPEG-4,与JPEG相结合,在可以看到JPEG静止图像的同时,利用MPEG-4高级压缩功能,令到高

基于Retinex算法图像增强的MATLAB实现

基于Retinex算法视频增强的MATLAB实现 一、读书笔记 1:数字图像文件简介 BMP文件:Windows操作系统中的标准图像文件格式,能够被多种Windows应用程序所支持。 GIF文件:GIF文件的数据是一种基于LZW算法的连续色调的无损压缩格式,不属于任何应用程序。 JPEG图像格式:后缀名为.jpg或者.jpeg,是一种有损压缩格式。 ICO文件:Windows的图标文件格式的一种,可以存储单个图案、多尺寸、多色板的图标文件 HDF文件:层次型数据格式可以存储不同类型的图像和数码数据,有函数库。 PNG文件:常用于JAVA程序、网页和S60中。 TIFF文件:主要用来存储包括照片和艺术图在内的文件格式。 DICOM文件:数字影像和通信标准。 2:基于MATLAB图像处理基础 1)图像数据类型 double类型:图像处理最常用的数据类型,也是matlab中默认的数 据类型。图像数据的取值范围为0-1。 Unit8类型:常用于从存储设备中读取数据时,操作不能使结果超出 [0,255]. Unit16类型:用于精度较高的图像中。 Logical类型:常用于二值图像中,可用true、false或关系运算符 得到。 2)数据类型转换 3)文件信息读取

Matlab提供imfinfo函数来实现所有格式(除DICOM)的信息读取,调用形式: info=imfinfo(’filename’) 4)读取图像 使用imread可以将图像读入matlab环境,语法: imread (‘filename’),其中,filename是一个含有文件全名的字符串。 函数size可给出一副图像的行数和列数 >>size(f) Ans= 1024 1024 5)显示图像 在matlab桌面上显示图像一般用imshow,语法: imshow (f,G) 其中,f是一个图像数组,G为显示该图像的灰度级数。若将G省略,则默认256.语法 imshow(f,[low high])会将小于或等于low的显示为黑色,大于或等于high的显示为白色,介于两者之间的值以默认的级数显示为中等亮度值。语法 imshow(f,[])可以将变量low设置为数组f的最小值,将high 设置为f的最大值。 6)保存图像 使用imwrite函数可将图像写入磁盘,语法; Imwrite(f,’filename’) Filename必须是一个可识别的文件格式扩展名 另一种常用但只用于jpeg图像的函数imwrite,其语法为 Imwrite(f,’filename.jpg’,’quality’,q), Q为一个0到100的整数,q越小,图像退化越严重 3:亮度变换与空间滤波 1)函数imadjust是对灰度图像进行亮度变换的基本IPT工具。语法 g=imadjust(f,[low_in high_in],[low_out high_out],gamma) 将low_in至high_in之间的值映射到low_out至high_out之间的值,其他的值被剪切掉了。 2)对数和对比度的拉伸变换 对数变换通过以下表达式实现: g=c*log(1+double(f)) 3)阈值变换 表达式:g=1./(1+(m./(double(f)+eps)).^E) Eps可避免f出现0值的溢出现象 4)计算并绘制图像直方图 函数:imhist(f); 直方图均衡化有函数histep实现,语法:g=histep(f,nlev) Nelv为输出图像制定的灰度等级 5)空间滤波: 工具箱使用函数imfilter来实现线性空间滤波,语法 g=imfilter(f,w,filter_mode,boundary_options,size_options)

彩色图像分割的国内外研究现状

1.阈值分割方法 阈值分割方法的历史可追溯到近40年前,现已提出了大量算法,对灰度图像的取阈值分割就是先确定一个处于图像灰度取值范闱之中的灰度阈值,然后将图像中各个象素的灰度值都与这个阈值相比较,并根据比较结果将对应的像素分为两类。这两类像素一般分属图像的两类区域,从而达到分割的目的。从该方法中可以看出,确定一个最优阈值是分割的关键。现有的大部分算法都是集中在阈值确定的研究上。阈值分割方法根据图像木身的特点,可分为单阈值分割方法和多阈值分割方法;也可分为基于像素值的阈值分割方法、基于区域性质的阈值分割方法和基于坐标位罝的阈值分割方法。若根据分割算法所有的特征或准则,还可以分为直方图与直方图变换法、最大类空间方差法、最小误差法与均匀化误差法、共生矩阵法、最大熵法、简单统计法与局部特性法、概率松弛法、模糊集法、特征空间聚类法、基于过渡区的阈值选取法等。 目前提出了许多新方法,如严学强等人提出了基于量化直方图的最大熵阈值处理算法,将直方图量化后采用最大熵阈值处理算法,使计算量大大减小。薛贵浩、帝毓晋等人提出基于最大类间后验交叉熵的阈值化分割算法,从目标和背景的类间差异性出发,利用贝叶斯公式估计像素属于目标和背景两类区域的后验概率,再搜索这两类区域后验概率之间的最大交叉熵。这种方法结合了基于最小交叉熵以及基于传统香农熵的阈值化算法的特点和分割性能,取得很好的通用性和有效性,该算法也容易实现二维推广,即采用二维统计量(如散射图或共生矩阵)取代直方图,以提高分割的准确性。俞勇等人提出的基于最小能量的图像分割方法,运用了能量直方图来选取分割阈值。任明武等人提出的一种基于边缘模式的直方图构造新方法,使分割阈值受噪声和边缘的影响减少到最小。程杰提出的一种基于直方图的分割方法,该方法对Ostu准则的内在缺陷进行了改进,并运用对直方图的预处理及轮廓追踪,找出了最佳分割阈值。此方法对红外图像有很强的针对性。付忠良提出的基于图像差距度量的阈值选取方法,多次导出Ostu方法,得到了几种与Ostu类似的简单计算公式,使该方法特别适合需自动产生阈值的实时图像分析系统。华长发等人提出了一种基于二维熵阈值的图像分割快速算法,使传统二维阈值方法的复杂度从0(W2 S2)降至0(W2/3 S2/3)。赵雪松等人提出的综合全局二值化与边缘检测的图像方法,将全局二值化与边缘检测有效的结合起来,从而达到对信封图分割的理想效果。靳宏磊等人提出的二维灰度直方图的最佳分割方法,找到了一条最佳分割曲线,使该算法得到的分割效果明显优于一维直方图阈值方法。乐宁等人根据过渡区内象素点具有的邻域方向性特点,引入了基于一元线性回归处理的局部区域随机波动消除方法,将图像过渡区算法进行了改进。模糊技术及其日趋成熟的应用也正适应了大部分图像边缘模糊而难以分析的现状,赵初和王纯提出的模糊边缘检测方法能有效地将物体从背景中分离出来,并已在模式识别中的图像预处理和医学图像处理中获得了良好的应用。金立左、夏良正等提出图像分割的自适应模糊阈值法,利用目标一背景对比度自动选取窗宽的方法,并给出了根据目标与摄像机间的相对距离估计目标--背景对比度的算法,克服隶属函数的分布特性及其窗宽对阈值选取的不良影响。其应用于智能电视跟踪系统,对不同对比度和不同距离的海面舰船图像进行阈值分割,有较强的场景适应能力。王培珍、杜培明等人提出了一种用于多阈值图像自动分割的混合遗传算法,针对Papamarkes等提出爬山法的多阈值分割和Olivo提出子波变换的方法只对明显峰值有效而对不明显的峰值无效的缺点,以及结合模糊C-均值算法和遗传算法的两大显著特点而改进的算法,这种分割方法能够快速正

基于retinex的图像去雾算法

I=imread('1.jpg'); R = I(:, :, 1); G = I(:, :, 2); B = I(:, :, 3); R0 = double(R); G0 = double(G); B0 = double(B); [N1, M1] = size(R); Rlog = log(R0+1); Rfft2 = fft2(R0); sigma1 = 128; F1 = fspecial('gaussian', [N1,M1], sigma1); Efft1 = fft2(double(F1)); sigma2 = 256; F2 = fspecial('gaussian', [N1,M1], sigma2); Efft2 = fft2(double(F2)); sigma3 = 512; F3 = fspecial('gaussian', [N1,M1], sigma3); Efft3 = fft2(double(F3)); DR0 = Rfft2.* Efft1; DR = ifft2(DR0); DRlog = log(DR +1); Rr1 = Rlog - DRlog; DR0 = Rfft2.* Efft2; DR = ifft2(DR0); DRlog = log(DR +1); Rr2 = Rlog - DRlog; DR0 = Rfft2.* Efft3; DR = ifft2(DR0); DRlog = log(DR +1); Rr3 = Rlog - DRlog; Rr = (Rr1 + Rr2 +Rr3)/3; a = 125; II = imadd(R0, G0); II = imadd(II, B0); Ir = immultiply(R0, a); C = imdivide(Ir, II); C = log(C+1); Rr = immultiply(C, Rr); EXPRr = exp(Rr); MIN = min(min(EXPRr)); MAX = max(max(EXPRr)); EXPRr = (EXPRr - MIN)/(MAX - MIN); EXPRr = adapthisteq(EXPRr); Glog = log(G0+1); Gfft2 = fft2(G0); DG0 = Gfft2.* Efft1;

摄像头视频采集压缩及传输原理

摄像头视频采集压缩及传输原理 摄像头基本的功能还是视频传输,那么它是依靠怎样的原理来实现的呢?所谓视频传输:就是将图片一张张传到屏幕,由于传输速度很快,所以可以让大家看到连续动态的画面,就像放电影一样。一般当画面的传输数量达到每秒24帧时,画面就有了连续性。 下边我们将介绍摄像头视频采集压缩及传输的整个过程。 一.摄像头的工作原理(获取视频数据) 摄像头的工作原理大致为:景物通过镜头(LENS)生成的光学图像投射到图像传感器表面上,然后转为电信号,经过A/D(模数转换)转换后变为数字图像信号,再送到数字信号处理芯片(DSP)中加工处理,再通过USB接口传输到电脑中处理,通过显示器就可以看到图像了。下图是摄像头工作的流程图: 注1:图像传感器(SENSOR)是一种半导体芯片,其表面包含有几十万到几百万的光电二极管。光电二极管受到光照射时,就会产生电荷。 注2:数字信号处理芯片DSP(DIGITAL SIGNAL PROCESSING)功能:主要是通过一系列复杂的数学算法运算,对数字图像信号参数进行优化处理,并把处理后的信号通过USB等接口传到PC等设备。 DSP结构框架: 1. ISP(image signal processor)(镜像信号处理器) 2. JPEG encoder(JPEG图像解码器) 3. USB device controller(USB设备控制器) 而视频要求将获取的视频图像通过互联网传送到异地的电脑上显示出来这其中就涉及到对于获得的视频图像的传输。 在进行这种图片的传输时,必须将图片进行压缩,一般压缩方式有如H.261、JPEG、MPEG 等,否则传输所需的带宽会变得很大。大家用RealPlayer不知是否留意,当播放电影的时候,在播放器的下方会有一个传输速度250kbps、400kbps、1000kbps…画面的质量越高,这个速度也就越大。而摄像头进行视频传输也是这个原理,如果将摄像头的分辨率调到640×480,捕捉到的图片每张大小约为50kb左右,每秒30帧,那么摄像头传输视频所需的速度为50×30/s=1500kbps=1.5Mbps。而在实际生活中,人们一般用于网络视频聊天时的分辨率为320×240甚至更低,传输的帧数为每秒24帧。换言之,此时视频传输速率将不到300kbps,人们就可以进行较为流畅的视频传输聊天。如果采用更高的压缩视频方式,如MPEG-1等等,可以将传输速率降低到200kbps不到。这个就是一般视频聊天时,摄像头所需的网络传输速度。 二.视频压缩部分 视频的压缩是视频处理的核心,按照是否实时性可以分为非实时压缩和实时压缩。而视频传输(如QQ视频即时聊天)属于要求视频压缩为实时压缩。 下面对于视频为什么能压缩进行说明。 视频压缩是有损压缩,一般说来,视频压缩的压缩率都很高,能够做到这么 高的压缩率是因为视频图像有着非常大的时间和空间的冗余度。所谓的时间冗余度指的是两帧相邻的图像他们相同位置的像素值比较类似,具有很大的相关性,尤其是静止图像,甚至两帧图像完全相同,对运动图像,通过某种运算(运动估计),应该说他们也具有很高的相关性;而空间相关性指的是同一帧图像,相邻的两个像素也具备一定的相关性。这些相关性

基于arm的视频图像采集系统

基于arm的视频图像采集系统 摘要:本系统采用了Samsung公司生产的S3C2440芯片作为嵌入式处理器,再结合系统所需的外围硬件构成基本硬件电路。主要包括二大部分:处理器和存储器部分;电源时钟复位电路部分;外围接口电路部分。在对各部分硬件进行详细设计后,接下来详细介绍了嵌入式软件平台的构建,包括如何移植Linux操作系统:基于嵌入式Linux下USB接口摄像头视频设备采集;移植H.264视频压缩库和视频传输程序的编写。 1 抓拍系统开发环境的构建 本文所设计的采集系统按功能可划分为嵌入式主控模块、视频采集模块、网络传输模块、等三大部分。图1-1为本系统的系统框架图: 1. USB数字摄像头采集图像数据: 2.采集传输应用程序通过摄像头驱动从摄像头获取到采集的图像数据: 3.采集传输应用程序调用H.264编码库对图像数据进行压缩: 4.采集传输应用程序将压缩后的图像数据通过网络传输给windows PC上 的显示程序: 5. Windows上的显示程序对图像数据进行解码并显示: 图1-1软件架构图 本系统的嵌入式主控模块是基于Samsung公司生产的S3C2440这款处理器,主要作用是实现对各模块数据的响应、处理以及控制。在硬件上,主控模块包括电源、时钟、复位电路、存储模块、以太网接口电路等。在软件上,主控模块上运行Linux操作系统,管理各应用程序模块进程并调度各进程。

1.1采集系统的硬件平台设计 本系统的核心处理器为二星公司的S3C2440,外扩64M的SDRAM存储器以及64M 的FLASH存储器,外围接口电路模块:包括USB接口电路,以太网网卡DM9000接口电路以及网眼3000的数字摄像头等。本系统的硬件结构如图1-2所示。 图1-2系统硬件架构图 1.1.1电源、时钟模块设计 系统各部分硬件要求提供1.8V和3V的电压。其中S3C2440处理器内核需要提供1.8V 电源,NandFlash, SDRAM及DM9000等芯片需要提供3V电源,所以本系统采用了LM1117-3.3和LM1117-1.8电压转换芯片设计稳压电源,得到1.8V和3.3V的所需电压。USB 控制器需要提供5V的电源。本文采用了5V直流电压供电。LM1117是一个低压差电压调节器系列。其压差在1.2V输出,负载电流为800mA时为1.2V 。LM1117有5个固定电压输出(1.8V, 2.5V, 2.85V, 3.3V和5V)的型号。根据本系统的需要,这里选用了电压输出为1.8V 和3.3V两型号。 时钟电路为CPU和其它外围电路提供精准的工作时钟,按照电路中设计使用的器件特性分为有源和无源晶振,在本系统的设计电路中采用的是无源晶振。ARM芯片均提供时钟发生电路,结合一定的辅助电路的配合就可以得到所需要的时钟信号。基十ARMS的这款S3C2440芯片的时钟控制逻辑可以产生为CPU核供给时钟信号的FCLK、为AHB总线供给时钟信号的HCLK、为APB总线供给时钟信号的PCLK。 1.1.2外部存储器的扩展 S3C2440微处理器存储空间仅有32M,应用于本系统,需要外扩存储器。本设计采用两片二星公司的HY57V561620来扩展64M的SDRAM。它们均4M* 16bit*4bank的SDRAM 芯片,这样,两片SDRAM实现了位扩展,数据总线达到了32bit,构成64M寻址空间。图1-3为S3C2440与NandFlash的接口图。

三种不同灰度图像增强算法对比

三种不同灰度图像增强算法对比 一、摘要 本文主要是运用直方图均衡化、平滑、锐化三种常见的图像增强算法对图像进行处理,并在此基础上分别用这 3 种算法处理的灰度图像进行比较,比对它们对图像的处理效果, 分析3 种方法在图像增强处理能力的优劣之处。 结果发现,直方图均衡化可以均衡图像的灰度等级, 经过直方图的均衡化,图像的细节更加清楚了,但是由于直方图均衡化没有考虑图像的内容,只是简单的将图像进行直方图均衡,提高图像的对比度,使图像看起来亮度过高,使图像细节受到损失; 图像平滑的目的是减少或消除图像的噪声, 图像平滑可以使图像突兀的地方变得不明显, 但是会使图像模糊,这也是图像平滑后不可避免的后果,只能尽量减轻,尽量的平滑掉图像的噪声又尽量保持图像细节,这也是图像平滑研究的主要问题; 图像锐化使图像的边缘、轮廓变得清晰,并使其细节清晰,常对图像进行微分处理,但是图像的信噪比有所下降。 关键词: 图像增强灰度图直方图平滑锐化 二、三种图像增强算法 图像预处理是相对图像识别、图像理解而言的一种前期处理,主要是指按需要进行适当的变换突出某些有用的信息,去除或削弱无用的信息,在对图像进行分析之前, 通常要对图像质量进行改善,改善的目的就是要使处理后的图像比原始图像更适合特定的应用。影响图像清晰度的因素很多,主要有光照不足、线路传输收到干扰等。 现存的图像增强技术主要分为空间域法和频率域法两类,其中的增强方法主要有直方图的修正、灰度变换、图像平滑、图像锐化、伪彩色和假彩色处理等。下面主要采用直方图均衡化、图像平滑、图像线性锐化对图像进行增强处理, 对比他们的处理效果,分析 3 种方法的在图像增强处理方面的优劣。 1、直方图均衡化 直方图均衡化也称为直方图均匀化,是一种常见的灰度增强算法,是将原图像的直方图经过变换函数修整为均匀直方图,然后按均衡后的直方图修整原图像。 为方便研究,先将直方图归一化,然后图像增强变换函数需要满足2个条件。 假设灰度级为归一化至范围[0,1]内的连续量,设其中任一灰度级别Z归一化为r,变换后图像的任一灰度级Z'归一化为s,显然r,s应当满足:0<=r<=1,0<=s<=1 因此直方图修正就是对下列公式的计算过程:s=T(r)或r=T'(s) 式中T(r)为变换函数,它必须满足下列条件: a在0<=r<=1区间内是单值单调增加函数; b对于0<=r<=1,有T(r)在[0,1]内。 条件a 保证灰度级从黑到白的次序,而条件b确保映射后的像素灰度在允许的范围内,避免整个图像明显变亮或者变暗。 从S 到r的反变换关系为r=T'(s) ;T'(s)对r同样满足上述条件。 灰度变换是对图像上各个像素点的灰度值x 按某个函数T 变换到y ,将图像的灰度级整个范围或其中某一段( A, B)扩展或压缩到( A, B)。直方图均衡化是灰度变换的一个重要应用,是以累计分布函数变换为基础的直方图修正法, 可以产生一幅灰度级分布具有均匀概率密度的图像。一幅图像灰度级r k 出现的概率近似为 其中n 是图像中像素的总和, nk 是灰度级为r k 的像素个数, L 为图像中灰度级总数。若

彩色图像分割-RGB模型

成绩评定表学生姓名班级学号 专业电子信息工 程课程设计题目彩色图像分割程序设 计——RGB模型 评 语 组长签字: 成绩 日期201年月日

课程设计任务书 学院信息科学与工程专业电子信息工程 学生姓名班级学号 课程设计题目彩色图像分割程序设计——RGB模型 实践教学要求与任务: 本次课程设计中,主要任务是实现基于RGB模型的彩色图像分割的程序设计,对给定的彩色图像的颜色,使用RGB颜色模型,来对其进处理。 并且设计MATLAB程序,使其能完成输入图像便自动使用RGB 模型来进行图像分割。 工作计划与进度安排: 第一阶段(1-2天):熟悉matlab编程环境,查阅相关资料; 第二阶段(2-3天):算法设计; 第三阶段(2-3天):编码与调试; 第四阶段(1-2天):实验与分析; 第五阶段(1-2天):编写文档。 指导教师: 201年月日专业负责人: 201年月日 学院教学副院长: 201年月日

Matlab是当今最优秀的科技应用软件之一,它一强大的科学计算与可视化功能,简单易用,开放式可扩展环境,特别是所附带的30多种面向不同领域工具箱支持,使得它在许多科学领域中成为计算机辅助设计与分析,算法研究和应用开发的基本工具盒首选平台在图像处理中,Matlab也得到了广泛的应用,例如图像变换,设计FIR滤波器,图像增强,四叉树分解,边缘检测,小波分析等等。不同的颜色空间在描述图像的颜色时侧重点不同。如RGB(红、绿、蓝三原色)颜色空间适用于彩色监视器和彩色摄象机,HSI(色调、饱和度、亮度)更符合人描述和解释颜色的方式(或称为HSV,色调、饱和度、亮度),CMY(青、深红、黄)、CMYK(青、深红、黄、黑)主要针对彩色打印机、复印机等,YIQ (亮度、色差、色差)是用于NTSC规定的电视系统格式,YUV(亮度、色差、色差)是用于PAL规定的电视系统格式,YCbCr(亮度单一要素、蓝色与参考值的差值、红色与参考值的差值)在数字影像中广泛应用。 彩色图像的处理有时需要将图像数据在不同的颜色空间中表示,因此,图像的颜色空间之间的转换成为一项有意义的工作。其中RGB在颜色空间转换中其关键作用,是各个空间转换的桥梁。Matlab中的颜色空间转换只涉及到了RGB、HSV、YCbCr、YIQ等,没有包含lαβ和其它颜色空间的转换。 关键字:Matlab;图像处理;RGB

图像去雾霭算法及其实现..

图像去雾霭算法及其实现 电气工程及其自动化 学生姓名杨超程指导教师李国辉 摘要雾霭等天气条件下获得的图像,具有图像不清晰,颜色失真等等一些图像退化的现象,直接影响了视觉系统的发挥。因此,为了有效的改善雾化图像的质量,降低雾霭等天气条件下造成户外系统成像的影响,对雾霭图像进行有效的去雾处理显得十分必要。 本设计提出了三种图像去雾算法,一种是基于光照分离模型的图像去雾算法;一种是基于直方图均衡化的图像去雾算法;还有一种是基于暗原色先验的图像去雾算法。并在MATLAB的基础上对现实生活的图像进行了去雾处理,最后对不同的方法的处理结果进行了简要的分析。 关键词:图像去雾光照分离直方图均衡化暗原色先验

Algorithm and its implementation of image dehazing Major Electrical engineering and automation Student Yang Chaocheng Supervisor Li Guohui Abstract Haze weather conditions so as to obtain the image, the image is not clear, the phenomenon of color distortion and so on some image degradation, directly influence the exertion of the visual system. Therefore, in order to effectively improve the atomization quality of the image, reduce the haze caused by outdoor weather conditions such as imaging system, the influence of the haze image effectively it is necessary to deal with the fog. This design introduced three kinds of algorithms of image to fog, a model is based on the separation of light image to fog algorithm; One is the image to fog algorithm based on histogram equalization; Another is based on the dark grey apriori algorithms of image to fog. And on the basis of MATLAB to the real life to deal with the fog, the image of the processing results of different methods are briefly analyzed. Key words:Image to fog Light separation histogram Dark grey

视频交通流采集系统解决方案

视频交通流信息采集系统解决方案 1概述 视频交通流信息采集系统主要包括视频图像采集设备、视频传输网络、交通流视频检测器等。视频检测器采用虚拟线圈技术,利用边缘信息作为车辆的检测特征,实时自动提取和更新背景边缘,受环境光线变化和阴影的影响较小;同时采用动态窗的方式来进行车辆计数,解决了采用以往固定窗方式进行车辆计数时由于车辆变道而导致的错误、重复计数问题。视频检测器能对视频图像采集设备或交通电视监视系统的视频信号自动进行检测,主要采集道路的微观交通信息如流量、速度、占有率、车辆间距、排队长度等,适用于近景监控模式。 2系统功能及特点介绍 2.1数据接口设计 视频交通流信息采集系统可以通过调用本项目提供的交通流数据统一接入接口,或由本项目提供数据格式标准化及上传程序,将采集到的交通流数据共享给本项目相关系统,以实现视频交通流数据的采集功能。 图1 数据接口设计 2.2系统功能 交通流信息视频检测系统的主要功能如下: (1)车辆检测 系统能够对输入的视频流图像进行车型、车牌等特征检测。

(2)交通流数据采集功能 系统可以采集交通流数据包括交通流量、平均车速、车道占有率、车型、平均车头间距、车辆排队长度、车辆密度、交通流状态等,交通流数据采集时间间隔在1~60分钟任意可调。 图 2 视频交通流检测模块 (3)视频图像跟踪功能 系统能对单路监控前端设备在不同预置位采集的视频图像进行不同区域不同事件的自动检测。一旦检测到特定的交通事件,事件检测器应具有该交通事件的视频图像目标自动跟踪、记录、分析功能。 当输入的视频图像不为设定的预置位的视频图像,系统应能自动不进行事件检测。一旦监控前端设备恢复至设定的预置位,系统应能自动进行事件检测。 (4)事件图像抓拍、录像功能 系统可以根据用户的设置,完成相应的录像和图片抓拍功能。 事件录像可以按摄像机、按事件类型、按时间归档存储在系统的预录像子系统中,由系统服务器进行统一的管理调用。 系统循环进行录像,当发生交通异常事件时,系统能够提供事发之前和之后的3分钟间的录像(可设置)。 系统可通过多种组合查询条件对视频交通流检测所采集的数据进行统计,包括时间-流量统计、时间-平均车速统计、时间-占有率统计、速度-流量统计等;统计结果可导出为

相关文档