文档库 最新最全的文档下载
当前位置:文档库 › 基于奇异值分解_SVD_的图像压缩

基于奇异值分解_SVD_的图像压缩

基于奇异值分解_SVD_的图像压缩
基于奇异值分解_SVD_的图像压缩

[收稿日期] 2005-10-11

[基金项目] 吉林省科技发展计划项目(20040509),东北师范大学校内青年基金资助项目(111420000).

[作者简介] 胡乡峰(1968-),男,副教授,主要从事教育技术应用研究;卫金茂(1967-),男,副教授,主要从事机器学习与数据挖

掘研究.

[文章编号]1000-1832(2006)03-0036-04

基于奇异值分解(SV D)的图像压缩

胡乡峰1,卫金茂2

(1.通化师范学院物理系,吉林通化134001;2.东北师范大学物理学院,吉林长春130024)

[摘 要] 根据奇异值分解的基本原理及其特点,给出了运用奇异值分解进行图像压缩的方

法.通过简单的例子说明了该方法进行图像压缩的基本过程,给出了压缩流程.并通过MAT-LAB 编程对实际图像进行处理,表明了该方法的有效性.[关键词] 图像处理;图像压缩;压缩率;奇异值分解

[中图分类号] TP 319 [学科代码] 520 6040 [文献标识码] A

0 引言

图像文件的容量一般都很大,它的存储和传输,特别是网间传输会因此受到很大影响[1].图像压缩技术是解决此问题的关键[2].当前对图像压缩的算法有很多,特点各异[3-5],从而形成了多种专门图像格式,例如jpg/jpeg [6-7].除了专门的图像压缩软件外,一般数据压缩工具的压缩率都不是太高,例如Winzip 的压缩只有两倍左右[8]

.本文是在奇异值分解基础上

[9-10]

完成的一种可调压缩率的图像压缩方法.

1 基本原理

本文主要以位图( bmp)格式的彩色图像为主讨论压缩问题.位图文件的特点是它的数据和图像像素点一一对应,组成三个矩阵[11],以往的处理是对数据本身进行分析,找出规律,然后再用相应的算法进行处理[12-14]

.本文将图像文件作为矩阵,运用奇异值分解(SVD)对矩阵进行压缩.

奇异值分解定理[9-10]

:

设A R m n ,则存在正交矩阵:

U =[u 1, ,u m ] R

m m

,V =[v 1, ,v n ] R

n n

,使A =U

00

V T

= r

i =1 i u i v T i .

其中 =diag ( 1, , r ),并且 1 2 r >0, 1, , r 是矩阵A 的奇异值,r =rank (A)是矩阵A 的秩[16-17]

.

实验中可以看出,任何一个图像文件的奇异值大小具有如图1所示的特点,即满足 大L 曲线 .

直观上,较小的奇异值对图像文件的贡献也较小.事实上,如果按奇异值从大到小选取k

异值生成矩阵来近似表示原矩阵A ,即A k = k

i =1 i u i v T

i ,则 A -A k 2= k +

1

.

根据上述原理,对一个图像文件A ,在满足视觉要求的基础上,按奇异值大小选取合适的奇异值个数k

在进行图像压缩时,只要选取合适的奇异值个数,经解压复制出来的矩阵A k 对应的图像就可以满足视觉的要求.经多次实验得出:一般情况下,对于256 n 2048的图像,选取25 k 100时,都有

第38卷第3期东北师大学报(自然科学版)

Vol.38N o.32006年9月

Journal of N ortheast N ormal U niversity (N atural Science Edition)

September 2006

图1 图像SVD 变换后的奇异值特性曲线(300*288)

较满意的视觉效果.当选取k 在r /5~r /30范围内时,图像的压缩率 的值在1~30的范围内.

下面用一个例子说明处理过程:

选取一个9 10的矩阵A ,如下所示.对其进行奇异值分解,三个矩阵记为:U (9 9),S (9 10),V (10 10).

A =

6871636361646067666367646461636566777066696364636919420119419392676765658111254878514766686872599057548413967617075839096101107646872776884921001017014565656272849310413010113465

6162

69

81

88

123

113

105

122

,U =

-0.2386-0.14610.51890.1473-0.0495-0.2973-0.34350.30590.573

0-0.2477-0.10320.45670.03140.0616-0.1974-0.2554-0.0389-0.7804-0.48890.78070.21830.2402-0.0581-0.1957-0.0620-0.02370.0003-0.3202-0.3444-0.3314-0.39530.58220.00740.17520.3730-0.0627-0.2881-0.3863-0.20240.4664-0.59340.2293-0.1279-0.2972-0.0053-0.30990.08450.52220.06550.13950.41680.5810-0.27140.1243-0.3373-0.2766-0.15880.3942-0.1135-0.62760.3927-0.25170.0686-0.3559-0.0832-0.1494-0.42020.36740.3092-0.5174-0.37970.1586-0.3474

-0.0087

-0.0599

-0.4578

-0.36340.34430.0802

0.6290

-0.1154,S =

833.208

0000000000164.6863

000000000076.29100000000

0055.3135

000000000029.9085

000000000025.3093

000000000016.0264

00000000006.7042000

003.7563

,V =

-0.2358-0.18620.33860.1170-0.0508-0.1420-0.26420.4244-0.54640.4584-0.2306-0.22970.30670.1115-0.0846-0.3418-0.41300.22860.5256-0.4018-0.2327-0.21600.31140.0698-0.1382-0.25490.2334-0.5397-0.4266-0.3973-0.2380-0.21590.31660.0337-0.12650.3353-0.0239-0.47010.39930.5347-0.2627-0.21940.2513-0.23480.41680.22560.97300.39410.1251-0.1044-0.37280.2170-0.28280.62510.1894-0.37710.3031-0.00780.15770.2200-0.36710.4340-0.0097-0.4705-0.5824-0.19690.20890.13230.08860.0921-0.38910.3140-0.0220-0.38140.6045-0.0892-0.3884-0.2687-0.08730.0013-0.36970.31860.02990.3608-0.15380.6605-0.15880.1014-0.1404-0.3401-0.3868

-0.5793

-0.6690

-0.1581

-0.1316

0.0907

-0.1022

0.0065

-0.0702

-0.0316

.

选取k =4,得到U k ,S k ,V k .

U k =

-0.2386-0.14610.51890.1473-0.2477-0.10320.45670.0314-0.48890.7807-0.21830.2402-0.3202-0.3444-0.33140.3953-0.2881-0.3863-0.20240.4664-0.30990.08450.52220.0655-0.3373-0.2766-0.15880.3942-0.3559-0.0832-0.1494-0.4202-0.3474

-0.0087

-0.0599

-0.4578

,S k =833.208

0000164.6863

000076.29100

55.3135

,

37

第3期胡乡峰,等:基于奇异值分解(SVD)的图像压缩

V k =

-0.2358-0.18620.33860.1170-0.2306-0.22970.30670.1115-0.2327-0.21600.31440.0698-0.2380-0.21590.31660.0337-0.2627-0.21940.2513-0.2348-0.37280.2170-0.28280.6251-0.36710.4340-0.0097-0.4705-0.38910.3140-0.0220-0.3814-0.36970.31860.02990.3608-0.3868

-0.5793

-0.6690

-0.1581

.

计算A k 得到:

A k =U k S k V T k =

65.707464.423164.462765.309365.547662.788358.344365.824769.962363.063463.811562.367362.749863.858066.288764.469067.237873.526272.457366.073468.013360.785262.693764.342871.5125192.7609199.2415194.1797195.863192.120567.463

4

69.248167.907268.477671.0676107.978963.281178.232787.713949.528766.2015168.102166.523866.820867.081896.157248.500263.912477.3122135.94 72.198068.972569.843971.170973.947 190.277398.7614102.5867102.402764.587668.091769.133569.897372.151285.918784.691893.78/21103.6484

81.1752146.666765.884965.446366.743569.133883.513296.2696113.9557120.203969.5469133.947063.9962

62.8551

64.4455

66.8885

81.1627

93.0556

117.5966

121.9429

97.2888

119.8524

.

图2 压缩与解压程序流程

可以看出A k 与A 几乎相同.一幅图像的矩阵是很大的,如1024 768,图像越大,k 相对越小,压缩率就可以达到很大.如选取k =100,则用三个矩阵代替原图像矩阵(1024 768),则压缩率为76%.一般情况下,压缩率的值可达到30%而不至于使数据失真太大.

2 实验验证

根据上述奇异值分解的图像压缩原理,利用MAT -LAB 软件编制程序,对任意选取的一幅图像进行压缩与解压处理,程序流程如图2,效果如图3.

3 结论

本文讨论了一种基于奇异值分解的图像压缩方法,压缩的基本原理是用具有较少元素的压缩矩阵(U k ,

S k ,V k )代替原始图像矩阵,再用压缩矩阵生成原始图像的近似图像.在分解过程中,根据奇异值分解基本原理即可得到U ,V .通过选取k ,调节压缩率可以达到不同的压缩效果.文中通过实验证实了该方法是一种实现过程简单、行之有效的压缩方法,具有一定的应用前景.

图3 不同压缩比率压缩图像的效果

38

东北师大学报(自然科学版)

第38卷

续图3 不同压缩比率压缩图像的效果

[参 考 文 献]

[1] BOU LGOURIS N V,TZOVARAS D,S TRINNTZIS M G.Lossless image com pression based on opti mal prediction,adaptive lifting,

and conditional arithm etic coding[J].IEEE T ransactions on Image Processing,2001,10(1):1-14.

[2] AM IR,W ILL IAM A P.An image multire solution representati on for lossless and loss y compressi on[J].IEEE T rans Image Proces s -ing,1996,5(9):1303-1310.

[3] CHEN,KWONG S AM ,FENG JJFU.A new compression sch eme for color-quantized image[J].IEEE Transacti ons on Circui ts and

Systems for Video T echnology,2002,12(10):36-39.

[4] M ARTIN M B.New image compression techniques using mul tiw avelets and multiw avelet pack ets [J].IE EE Transactions on Image

Processing,2001,10(4):500-511.

[5] 何文章,吴爱弟,宋国乡.基于双正交多小波图像压缩方法[J].东北师大学报:自然科学版,2004,36(2):122-124.

[6] M ICHEL BARLAU D.Pyramidal lattice vector quantization for multiscale i mage coding[J].IEEE Transacti on on Image Processing,

1994,3(4):367-380.

[7] WALLACE G.T he JPEG still picture compression standard[J].Communication of the ACM ,1991,34(4):25-45.[8] 林福宗.多媒体技术基础[M ].北京:清华大学出版社,2002:45-57.

[9] 黄廷视,钟守铭,李正良.矩阵理论[M ].北京:高等教育出版社,2003:94-95.[10] 袁晖坪.次酉矩阵与次镜象阵[J].东北师大学报:自然科学版,2001,33(1):26-29.[11] 李弼臣,等.智能图像处理技术[M ].北京:电子工业出版社,2004:9-32.

[12] CONWAY J H,SLOANE N J A.Fast quanti z i ng and deconding al gorithms for lattice quantizers and codes[J].IEEE Transactions on

Information T heory,1982,28(2):227-232.

[13] CONW AY J H,SLOANE N J A.A fast encoding method for lattice codes and quantizers[J ].IEEE T ransactions on Information

T heory,1983,29(6):820-824.

[14] AM IR AVERBUCH,DANNY LAZAR,M OSHE IS RAEL I.Image compression using wavelet transform and muliti res oluti on de -composition[J].IEE E T ransactions on IP,1996,5(1):4-15.

[15] 斯图尔特G W.矩阵计算引论[M ].上海:科学技术出版社,1980:282-284.[16] 谢国瑞.线性代数及应用[M ].北京:高等教育出版社,1999:81-87.

Image compression based on singular value decomposition

H U Xiang -feng 1

,WEI Jin -mao

2

(1.Department of Physi cs,T onghua Teachers Col lege,Tonghua 134002,China;2.S chool of Physics,Northeast Normal University,Changchun 130024,China)

Abstract:This paper analyzes the rationale of singular value decomposition (SVD)and its unique character -istics,and presents an approach for image com pression based on SVD.A simple example is used to depict the process of image com pression.In the paper,a flow chart is also given for fulfilling imag e compression.With M ATLAB,a real im age is treated,w hich instantiates the feasibility of the presented approach.Keywords:image processing;imag e compression;compression ratio;sing ular value decom position

(责任编辑:陶 理)

39

第3期胡乡峰,等:基于奇异值分解(SVD)的图像压缩

奇异值分解和图像主分量复原_20180129

奇异值分解(SVD)和图像矩阵的分解测试 · SVD简单介绍 在很多情况下,数据的绝大部分信息往往集中在很小一部分数据上,我们知道线性代数中有很多矩阵的分解技术可以将矩阵表示成易于处理或是表达简化的形式。最常见的一就种是SVD(Singular Value Decomposition)算法。 SVD将数据分解成三个矩阵U,S,VT,这里得到的S是一个对角阵,其中对角元素为奇异值,它代表着矩阵的重要特征,从左上角到右下角重要程度递减。因为奇异值往往对应着矩阵中隐含的重要信息,而且奇异值大小与重要性正相关。 优点:简化数据,优化数据的表达形式。 缺点:难于计算。 关于奇异值分解的定义和相关推导,推荐参考这篇文章,介绍的非常清晰易懂:机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用 故公式什么的这里就不列出了,理解了理论后,我们来小小测试一下,以体会其强大之处。 · matlab测试图像SVD 这里使用的是matlab函数svd():[U,S,V]=svd(A);

输出结果:图像大小为256x256,奇异值有256个,结果可见前50个特征就基本涵盖了原图所有信息。 理解PCA和SVD 发表于 2015-12-04 | 分类于数学杂谈| | 阅读次数 4136 By Z.H. Fu 切问录https://www.wendangku.net/doc/3c15337866.html, 摘要 本文主要从分解形式上讲述了PCA(Principal Component Analysis,主成分分析)和SVD(Singular Value Decomposition奇异值分解)的目的和方法,对于两种方法都给出了一种直观的理解。简单起见,本文不给出具体的应用实例。 ## PCA 主成分分析(PCA)常用于提取一系列多维样本的共同特征。那么,怎么理解特征?我们假设每个样本是由一系列的特征线性组合而成的,PCA的目的就是去找到这些特征,然后将每一个样本表示为这些特征的组合,实际上PCA找到了样本空间中的一组基,将每一个样本表示为这组基的线性组合,因此,每一个基就是一个特征。那么,特征需要满足哪些性质呢?其实就一点,特征之间的关系应该越少越好。用基来描述就是

特征值分解与奇异值分解

特征值:一矩阵A作用与一向量a,结果只相当与该向量乘以一常数λ。即A*a=λa,则a 为该矩阵A的特征向量,λ为该矩阵A的特征值。 奇异值:设A为m*n阶矩阵,A H A的n个特征值的非负平方根叫作A的奇异值。记 (A) 为σ i 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。在上篇文章中便是基于特征值分解的一种解释。特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计算中。而且线性代数或者矩阵论里面,也很少讲任何跟特征值与奇异值有关的应用背景。奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。就像是描述一个人一样,给别人描述说这个人长得浓眉大眼,方脸,络腮胡,而且带个黑框的眼镜,这样寥寥的几个特征,就让别人脑海里面就有一个较为清楚的认识,实际上,人脸上的特征是有着无数种的,之所以能这么描述,是因为人天生就有着非常好的抽取重要特征的能力,让机器学会抽取重要的特征,SVD是一个重要的方法。 在机器学习领域,有相当多的应用与奇异值都可以扯上关系,比如做feature reduction的PCA,做数据压缩(以图像压缩为代表)的算法,还有做搜索引擎语义层次检索的LSI(Latent Semantic Indexing) 另外在这里抱怨一下,之前在百度里面搜索过SVD,出来的结果都是俄罗斯的一种狙击枪(AK47同时代的),是因为穿越火线这个游戏里面有一把狙击枪叫做 SVD,而在Google上面搜索的时候,出来的都是奇异值分解(英文资料为主)。想玩玩战争游戏,玩玩COD不是非常好吗,玩山寨的CS有神马意思啊。国内的网页中的话语权也被这些没有太多营养的帖子所占据。真心希望国内的气氛能够更浓一点,搞游戏的人真正是喜欢制作游戏,搞Data Mining的人是真正喜欢挖数据的,都不是仅仅为了混口饭吃,这样谈超越别人才有意义,中文文章中,能踏踏实实谈谈技术的太少了,改变这个状况,从我自己做起吧。 前面说了这么多,本文主要关注奇异值的一些特性,另外还会稍稍提及奇异值的计算,不过本文不准备在如何计算奇异值上展开太多。另外,本文里面有部分不算太深的线性代数的知识,如果完全忘记了线性代数,看本文可能会有些困难。 一、奇异值与特征值基础知识: 特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系,我在接下来会谈到,特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。先谈谈特征值分解吧:

矩阵的奇异值分解在数字图像处理的应用

矩阵的奇异值分解 在数字图像处理的应用浅析 学院:··· 专业:·· 姓名:·· 学号:·· 2011年11月6日

目录 一、绪论.................................................................................................................. - 1 - 二、数字图像处理简介 ................................................................................................ - 2 - 三、矩阵的奇异值分解原理 ......................................................................................... - 4 - 3.1 矩阵的奇异值................................................................................................. - 4 - 3.2 矩阵的奇异值分解(SVD)............................................................................ - 4 - 四、奇异值分解的图像性质 ......................................................................................... - 5 - 五、图像的奇异值分解压缩方法 .................................................................................. - 7 - 5.1 奇异值分解压缩原理分析 ............................................................................... - 7 - 5.2 奇异值分解压缩应用过程 ............................................................................... - 8 - 六、小结.................................................................................................................. - 9 -

基于四元数奇异值分解的图像质量评价方法

基于四元数奇异值分解的图像质量评价方法 摘要: 关键词:四元数奇异值分解图像质量评价 图像质量评价是图像处理的重要研究内容之一,作为算法性能评判及参数优化的重要指标,图像质量评价对于图像采集、压缩、编码、去噪、增强、水印、认证、存储、合成、复制等相关领域具有重要意义一。图像质量评价用来表征畸变图像相对于作为标准图像的原始图像的差异程度,其中的畸变图像主要指对原始图像进行如下变换:噪声(高斯、椒盐)、模糊(失焦、大气湍流、运动模糊)、有损压缩(JPEG、JPEG2000、SVD、小波)等。图像质量评价主要有主观和客观两种方式。考虑到传统的主观质量评价不仅对实验条件要求有着苛刻的要求,而且实施步骤复杂,不能满足实时性的要求,客观质量评价吸引了更多关注。 根据参考图像的存在与否,客观图像质量评价方法又可分为全参考、半参考和无参考三种算法。其中,对于全参考算法的研究最为深入,并将其分为:①基于物理信号差异的方法,包括常见的均方误差(MSE),信噪比(SNR)和峰值信噪比(PSNR)等指标;②基于人言视觉系统(HVS)建模的方法。例如,视觉信噪比(VSNR)利用HVS的临界阈值和超阈值视觉感知特点改进SNR,以便更好的吻合人眼视觉感知结果;③基于结构相似性的方法。假设结构信息丢失是造成图像质量下降的唯一原因,此类方法包括了结构相似度(SSIM)和它的多分辨版本(MSSSIM);④基于自然场景统计(NSS)的方法,包括信息置信度标准(IFC)和视觉信息置信度(VIF)。 1.四元数基础 1.1 四元数及四元数矩阵的定义 1983年,英国数学家哈密顿(Hamilton W R)创造了四元数[1],一个四元数q是四维空间中的一个数,它包含一个实部a和三个虚部b、c、d,其基本形

奇异值分解的一些特性以及应用小案例

第一部分:预备知识 1.1 矩阵的F-范数与矩阵迹的关系 引理:设m n A R ?∈,令()ij m n A a ?=,则2211 ||||||()()m n T T F ij i j A a tr AA tr A A === ==∑∑;其中,()tr ?定义如下: 令方阵11 12121 22212r r r r rr m m m m m m M m m m ?? ??? ?=???? ?? ,则11221 ()r rr ii i tr M m m m m ==+++=∑ ,即矩阵M 的迹。注意,()tr ?只能作用于方阵。 那么,下面来看下为什么有2211 ||||||()()m n T T F ij i j A a tr AA tr A A === ==∑∑? 首先,22 11 ||||||m n F ij i j A a === ∑∑这个等式是矩阵F-范数的定义,即一个矩阵的F-范数等于矩阵中每个元素的平方和。 其次,因11121212221 2 ()n n ij m n m m mn a a a a a a A a a a a ???????==?? ???? ,则11 2111222212m m T n n mn a a a a a a A a a a ?? ????=?? ? ? ?? ,易得2211 ()()||||||m n T T ij F i j tr AA tr A A a A ==== =∑∑。(T AA 或T A A 的第r 个对角元素等于第r 行或列元素的平方和,所有对角元素之和就是矩阵每个元素的平方和,即有上式成立。)此过程如图1和图2所示。

主成份(PCA)与奇异值分解(SVD)的通俗解释

主成份(PCA)与奇异值分解(SVD)的通俗解释 主成分分析 1.问题描述 在许多领域的研究与应用中,往往需要对反映事物的多个变量进行大量的观测,收集大量数据以便进行分析寻找规律。多变量大样本无疑会为研究和应用提供了丰富的信息,但也在一定程度上增加了数据采集的工作量,更重要的是在大多数情况下,许多变量之间可能存在相关性,从而增加了问题分析的复杂性,同时对分析带来不便。如果分别对每个指标进行分析,分析往往是孤立的,而不是综合的。盲目减少指标会损失很多信息,容易产生错误的结论。 2.过程 主成分分析法是一种数据转换的技术,当我们对一个物体进行衡量时,我们将其特征用向量(a1,a2,a3,...an)进行表示,每一维都有其对应的variance(表示在其均值附近离散的程度);其所有维的variance之和,我们叫做总的variance;我们对物体进行衡量时,往往其特征值之间是correlated的,比如我们测量飞行员时,有两个指标一个是飞行技术(x1),另一个是对飞行的喜好程度(x2),这两者之间是有关联的,即correlated的。我们进行PCA(主成分分析时),我们并

没有改变维数,但是我们却做了如下变换,设新的特征为(x1,x2,x3...,xn); 其中 1)x1的variance占总的variance比重最大; 2)除去x1,x2的variance占剩下的variance比重最大;.... 依次类推; 最后,我们转换之后得到的(x1,x2,...xn)之间都是incorrelated,我们做PCA时,仅取(x1,x2,....xk),来表示我们测量的物体,其中,k要小于n。主成分的贡献率就是某主成分的方差在全部方差中的比值。这个值越大,表明该主成分综合X1,X2,…,XP信息的能力越强。如果前k 个主成分的贡献率达到85%,表明取前k个主成分基本包含了全部测量指标所具有的信息,这样既减少了变量的个数又方便于对实际问题的分析和研究。 注意,当(a1,a2,a3,...an)之间都是incorrelated时,我们就没有做PCA的必要了 数据点在上图所示的方向上进行投影后,数据仍然有着很大的variance,但在下图所示的方向上,投影后的数据的variance就很小。

基于奇异值分解的图像压缩及实现

基于奇异值分解的图像压缩及实现 本文利用奇异值分解方法,来对图片进行压缩,过程中我们 利用Matlab 编程来达到这个目的。 一:实验方法及原理 奇异值:矩阵A 的奇异值定义如下:设n *m r C A ?(r>0),且A A T 的特征值分别为 0n 1r r 21==??=≥≥??≥+λλλλλ (1) 则称i i λσ= (i=1,2,…,n )为A 的奇异值。 奇异值分解定理:设Σ=diag(r 21...σσσ,, ,),由式(1)可知,i σ(i=1,2,…,r )为A 的非零奇异值。U 为m 阶酉矩阵(n 阶复 方阵U 的n 个列向量是U 空间的一个标准正交基,则U 是酉矩阵),V 为n 阶酉矩阵,若满足矩阵等式 (2) 则称式(2)为A 的奇异值分解。若U 写成U =[m 21u ......u u ,, ,]的形式,V 写成V=[n 21v ......v v ,, ,]的形式,则式(2)可写成如下形式: (3) 由于大的奇异值对图像的贡献大,小的奇异值对图像的贡献小,所以可以从r 个奇异值生成矩阵中选取前k 个(k

(4) 近似表示图像A。 存储图像A需要mn个数值,存储图像k A需(m+n+1)k个数值,若取 (5) 则可达到压缩图像的目的,比率 (6) 称为压缩率 二:实验过程 1.实验数据来源: 本实验所需要的实验原图片是lena.bmp,处理后的图片设置为lena2.bmp。并获取图片的描述矩阵,为512*512阶8位的方阵。 设为A,同时也是原始矩阵,本实验主要是对A进行奇异值分解,用一个更小阶的矩阵来描述A,从而达到实验目的。 2.实验过程: 提取图像lena.bmp数据,将图片读入Matlab中,存储的是数据矩阵并且设置为512*512的矩阵A,将矩阵A中的数据转换为double型,以适应svd函数的要求,运用函数[U,S,V]=svd(A)进行图像的奇异值分解,分别得到对角奇异值矩阵S为512*1阶,以

K-SVD算法的图像去噪的实验

K-SVD 算法的图像去噪的实验 一:引言 现实中的图像在数字化和传输过程中由于常受到成像设备与外部环境噪声干扰等影响,从而降低了图像的质量,对图像的理解和解译造成了不小的困难,因此,在图像处理中,图像噪声抑制成为关键,也是后续图像的特征提取、分割、识别等工作的基础。噪声抑制技术的主要目标就是:在有效的去除噪声的同时保持纹理、边缘等细节信息。 传统的图像噪声抑制的方法有空间滤波技术和变换域滤波技术。其中空间滤波技术主要包括均值滤波、中值滤波、Lee 滤波等,这些方法虽然比较简单,且易于实现,但是会造成图像边缘和线性目标的模糊。变化域滤波技术主要包括小波变换、平稳小波、Bandelet 变换、Curvelet 变换和非下采样Contourlet 变换等。这些变换域滤波相比经典空间滤波方法来说,图像的边缘及线性目标的保持能力有了很大的提高。但大都需要对变换域的系数做某种统计假设,而这些假设是经验性的,无理论依据。且噪声和图像边缘具有相似的频率特性,即都是高频信号。因此噪声抑制后的图像在均匀区域和边缘附近常有伪吉布斯效应。 目前,一种新兴的“字典训练法”在图像处理中得到了广泛的研究和应用,其核心是字典的训练过程,称为K--SVD 方法。此算法首先是由 Aharon 、Elad 等人提出的。研究表明:K--SVD 方法不仅可以有效的抑制加性高斯白噪声,而且可以较好的保留边缘和纹理等重要信息,尤其是对纹理图像的结果更好。最重要的是此方法具有很好的适应性。 本文首先诠释下K--SVD 算法的基本思想,然后通过几个实验对比下该算法与之前的算法的去噪效果。 二:K--SVD 算法的基本思想 1:K-均值 因为K-SVD 算法是由K-均值扩展而来,先简单介绍K-均值算法。K-均值算法要解决的问题是:求解一个包括K 个代码的码本,求在此码本上,根据最近邻分配法则,对包括N 个信号的信号集1{y }N i i Y ==,N>>K 进行分类,使得最佳分类的问题。此时,Y 中各向量被归类于与之距离最小的代码所代表的类中,用此代码压缩或描述类中的向量误差最小。 矢量量化(VQ )中,码本的训练可以用典型的K-均值算法实现。令12[c ,c ,...,c ]K C =为码本,C 中的列c i 为码本中的代码。当码本C 给定时,每个信号用最近(2 l 范数意义下)的一个代码表示。也就是说,i i y Cx ≈,其中i j x e =是自然基中的一个向量(除第j 个值为1外,其他的值都是0)。j 满足: 22 22 ,i j i k k j y Ce y Ce ?≠-≤- (1) 这相当于稀疏编码的一个特例:只用一个原子来表示信号i y ,同时强制系数等于1,这

矩阵分解及其简单应用

矩阵分解是指将一个矩阵表示为结构简单或具有特殊性质若干矩阵之积或之和,大体分为三角分解、分解、满秩分解和奇异值分解.矩阵地分解是很重要地一部分内容,在线性代数中时常用来解决各种复杂地问题,在各个不同地专业领域也有重要地作用.秩亏网平差是测量数据处理中地一个难点,不仅表现在原理方面,更表现在计算方面,而应用矩阵分解来得到未知数地估计数大大简化了求解过程和难度. 矩阵地三角分解 如果方阵可表示为一个下三角矩阵和一个上三角矩阵之积,即,则称可作三角分解.矩阵三角分解是以消去法为根据导出地,因此矩阵可以进行三角分解地条件也与之相同,即矩阵地前个顺序主子式都不为,即.所以在对矩阵进行三角分解地着手地第一步应该是判断是否满足这个前提条件,否则怎么分解都没有意义.矩阵地三角分解不是唯一地,但是在一定地前提下,地分解可以是唯一地,其中是对角矩阵.矩阵还有其他不同地三角分解,比如分解和分解,它们用待定系数法来解求地三角分解,当矩阵阶数较大地时候有其各自地优点,使算法更加简单方便.资料个人收集整理,勿做商业用途 矩阵地三角分解可以用来解线性方程组.由于,所以可以变换成,即有如下方程组:资料个人收集整理,勿做商业用途 先由依次递推求得,,……,,再由方程依次递推求得,,……,. 资料个人收集整理,勿做商业用途 必须指出地是,当可逆矩阵不满足时,应该用置换矩阵左乘以便使地个顺序主子式全不为零,此时有:资料个人收集整理,勿做商业用途 这样,应用矩阵地三角分解,线性方程组地解求就可以简单很多了. 矩阵地分解 矩阵地分解是指,如果实非奇异矩阵可以表示为,其中为正交矩阵,为实非奇异上三角矩阵.分解地实际算法各种各样,有正交方法、方法和方法,而且各有优点和不足.资料个人收集整理,勿做商业用途 .正交方法地分解 正交方法解求分解原理很简单,容易理解.步骤主要有:)把写成个列向量(,,……,),并进行正交化得(,,……,);) 单位化,并令(,,……,),(,,……,),其中;). 这种方法来进行分解,过程相对较为复杂,尤其是计算量大,尤其是阶数逐渐变大时,就显得更加不方便.资料个人收集整理,勿做商业用途 .方法地分解 方法求分解是利用旋转初等矩阵,即矩阵()来得到地,()是正交矩阵,并且(()).()地第行第列 和第行第列为,第行第列和第行第列分别为和,其他地都为.任何阶实非奇异矩阵可通过左连乘()矩阵(乘积为)化为上三角矩阵,另,就有.该方法最主要地是在把矩阵化为列向量地基础上找出和,然后由此把矩阵地一步步向上三角矩阵靠近.方法相对正交方法明显地原理要复杂得多,但是却计算量小得多,矩阵()固有地性质很特别可以使其在很多方面地应用更加灵活.资料个人收集整理,勿做商业用途 .方法地分解 方法分解矩阵是利用反射矩阵,即矩阵,其中是单位列向量,是正交矩阵,.可以证明,两个矩阵地乘积就是矩阵,并且任何实非奇异矩阵可通过连乘矩阵(乘积为)化为上三角矩阵,则.这种方法首要地就是寻找合适地单位列向量去构成矩阵,

SVD奇异值分解

有关SVD奇异值分解的研究 ZDP 有关SVD奇异值分解,主要看了两个方面的内容:1.关于矩阵的SVD分解。 2.SVD所代表的最小二乘问题。主要是为了用SVD求取最小二乘解。 1. 关于矩阵的SVD分解:相当于主成分分析,找出哪些特征比较重要。奇异值的大小代表了左奇异向量和右奇异向量的重要程度。舍弃一些小奇异值对应的向量相当于消除一些没有太大影响的特征,从而提取出矩阵的主要特征。可以用于压缩从而减少内存的使用,以及滤波去噪。 2.关于最小二乘主要参考了网上的一份资料,SVD(奇异值分解)算法及其评估,在附件中可以找到。 这里主要说一下看资料时遇到的问题以及一些注意事项。矩阵的乘法本质上就是进行坐标的变换,由一种坐标系转变为另一种坐标系的过程。由行空间的一组正交基经由A矩阵变换为列空间一组正交基的过程。A?V=U?Σ。A=U?Σ?V T这里U为A的列空间正交基,Σ为奇异值,V为行空间正交基。V中所谓的行空间正交基,是[V1,V2,??,V n],也是列向量的形式。 针对方程组:A?X=b可以理解成X向量经由矩阵A变换成了b向量。同时可以表示成U?Σ?V T?X=b这里要注意是X向量的变换为从右向左的。V T?X为第一次变换,?Σ为第二次变换,?U为第三次变换。 从另一个角度看坐标变换的问题,A?V=U?Σ这个式子可以理解为一组正交基经矩阵A变换成了另一组正交基,这里Σ为缩放因子。 方程组的解X=V?Σ+?U T?b这里由于矩阵A不一定为方阵,引入广义逆的概念将SVD的应用范围进行了推广。 进行SVD的具体数值解法在文章中都有具体的介绍,这里介绍两个比较有意思的公式:A T A=V?ΣTΣ?V T;AA T=U?ΣΣT?U T。其中A T A为对称正定阵,V为A T A的特征向量,U为AA T的特征向量,ΣTΣ=ΣΣT为特征值。 https://www.wendangku.net/doc/3c15337866.html,/s/blog_b1b831150101ey41.html

奇异值分解及其应用

奇异值分解及其应用 This model paper was revised by the Standardization Office on December 10, 2020

PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计算中。而且线性代数或者矩阵论里面,也很少讲任何跟特征值与奇异值有关的应用背景。奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。就像是描述一个人一样,给别人描述说这个人长得浓眉大眼,方脸,络腮胡,而且带个黑框的眼镜,这样寥寥的几个特征,就让别人脑海里面就有一个较为清楚的认识,实际上,人脸上的特征是有着无数种的,之所以能这么描述,是因为人天生就有着非常好的抽取重要特征的能力,让机器学会抽取重要的特征,SVD是一个重要的方法。 在机器学习领域,有相当多的应用与奇异值都可以扯上关系,比如做feature reduction的PCA,做数据压缩(以图像压缩为代表)的算法,还有做搜索引擎语义层次检索的LSI(Latent Semantic Indexing) 奇异值与特征值基础知识 特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系,我在接下来会谈到,特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。先谈谈特征值分解吧: 如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式: 这时候λ就被称为特征向量v对应的特征值,一个矩阵的一组特征向量是一组正交向量。特征值分解是将一个矩阵分解成下面的形式: 其中Q是这个矩阵A的特征向量组成的矩阵,Σ是一个对角阵,每一个对角线上的元素就是一个特征值。我这里引用了一些参考文献中的内容来说明一下。首先,要明确的是,一个矩阵其实就是一个线性变换,因为一个矩阵乘以一个向量后得到的向量,其实就相当于将这个向量进行了线性变换。比如说下面的一个矩阵: 它其实对应的线性变换是下面的形式:

奇异值分解在图像压缩中的应用

图像压缩与矩阵奇异值分解 0 引言 矩阵不仅是各数学学科,而且也是许多理工学科的重要的数学工具。就起本身的研究而言,矩阵理论和线性代数也是极富创造性的领域。他们的创造性极大的推动和丰富了其他众多学科的发展,血多新的理论,方法和技术的诞生于发展就是矩阵理论的应用和推广。所以说矩阵理论在物理,力学,信号与信息处理,通信,电子,系统,控制,模式识别,土木,电机,航空和航天等众多学科中式最富有创造性和灵活性,并起着不可代替作用的数学工具。 1 矩阵的奇异值分解 在介绍矩阵的奇异值分解的时候,我们必须先得知道两个重要的的引理。 (1)对于任何一个矩阵A 都有rank(AA H )=rank(A H A)=rankA. (2)对于任何一个矩阵A 都有A H A 与AA H 是半正定Hermite 矩阵。 在这里对于这两个引理就不做详细的证明了。 在这里,于是就定义了,A H A 的正特征值λi ,AA H 的真特征值u i ,称 αi =λi =u i (i=1,2,……,r) 是A 的正奇异值,简称奇奇异值。 现在介绍完一些相关的概念后,我们再来介绍一下矩阵的奇异值分解的定理及相关的证明,定理如下: 若A ∈C R M*N ,δ1≥δ2≥……≥δr ,是A 的r 个正奇异值,则存在m 阶酋矩阵U 和n 阶酋矩阵V ,满足 A=UDV H =U ???????000V H 其中,?=diag(δ1, ……,δr),U 满足U H AA H U 是对角矩阵,V 满足V H A H A V 时对角矩阵。 这里证明如下: AA H 是Hermite 矩阵,故存在m 阶酋矩阵U ,满足 令U=(U1,U2),其中U1是m ?r 矩阵,U2是m ?(n-r)j 矩阵,则 比较上式两端可以知道 U 1H AA H U 1=??H (1) U 1H AA H U 2=0 (2)

2019机器学习中的数学 5 强大的矩阵奇异值分解 SVD.doc

机器学习中的数学 5 强大的矩阵奇异 值分解SVD 机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用 版权声明: 本文由LeftNotEasy发布于本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@https://www.wendangku.net/doc/3c15337866.html, 前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。在上篇文章中便是基于特征值分解的一种解释。特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计算中。而且线性代数或者矩阵论里面,也很少讲任何跟特征值与奇异值有关的应用背景。奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。就像是描述一个人一样,给别人描述说这个人长得浓眉大眼,方脸,络腮胡,而且带个黑框的眼镜,这样寥寥的几个特征,就让别人脑海里面就有一个较为清楚的认识,实际上,人脸上的特征是有着无数种的,之所以能这么描述,是因为人天生就有着非常好的抽取重要特征的能力,让机器学会抽取重要的特征,SVD是一个重要的方法。 在机器学习领域,有相当多的应用与奇异值都可以扯上关系,比如做feature reduction的PCA,做数据压缩(以图像压缩为代表)的算法,还有做搜索引擎语义层次检索的LSI(Latent Semantic Indexing) 另外在这里抱怨一下,之前在百度里面搜索过SVD,出来的结果都是俄罗斯的一种狙击枪(AK47同时代的),是因为穿越火线这个游戏里面有一把狙击枪叫做SVD,而在Google上面搜索的时候,出来的都是奇异值分解(英文资料为主)。想玩玩战争游戏,玩玩COD不是非常好吗,玩山寨的CS有神马意思啊。

奇异值分解及其应用

PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计算中。而且线性代数或者矩阵论里面,也很少讲任何跟特征值与奇异值有关的应用背景。奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。就像是描述一个人一样,给别人描述说这个人长得浓眉大眼,方脸,络腮胡,而且带个黑框的眼镜,这样寥寥的几个特征,就让别人脑海里面就有一个较为清楚的认识,实际上,人脸上的特征是有着无数种的,之所以能这么描述,是因为人天生就有着非常好的抽取重要特征的能力,让机器学会抽取重要的特征,SVD是一个重要的方法。 在机器学习领域,有相当多的应用与奇异值都可以扯上关系,比如做feature reduction的PCA,做数据压缩(以图像压缩为代表)的算法,还有做搜索引擎语义层次检索的LSI(Latent Semantic Indexing) 奇异值与特征值基础知识 特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系,我在接下来会谈到,特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。先谈谈特征值分解吧: 特征值

如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式: 这时候λ就被称为特征向量v对应的特征值,一个矩阵的一组特征向量是一组正交向量。特征值分解是将一个矩阵分解成下面的形式: 其中Q是这个矩阵A的特征向量组成的矩阵,Σ是一个对角阵,每一个对角线上的元素就是一个特征值。我这里引用了一些参考文献中的内容来说明一下。首先,要明确的是,一个矩阵其实就是一个线性变换,因为一个矩阵乘以一个向量后得到的向量,其实就相当于将这个向量进行了线性变换。比如说下面的一个矩阵: 它其实对应的线性变换是下面的形式: 因为这个矩阵M乘以一个向量(x,y)的结果是:

奇异值分解

奇异值分解(SVD) --- 几何意义 奇异值分解( The singular value decomposition ) 该部分是从几何层面上去理解二维的SVD:对于任意的 2 x 2 矩阵,通过SVD可以将一个相互垂直的网格(orthogonal grid)变换到另外一个相互垂直的网格。 我们可以通过向量的方式来描述这个事实: 首先,选择两个相互正交的单位向 量v1 和v2, 向量M v1和M v2正交。 u1和u2分别表示M v1和M v2的单位向量, σ1* u1= M v1和σ2* u2= M v2。σ1和σ2分别表示这不同方向向量上的模,也称作为矩阵M的奇异值。

这样我们就有了如下关系式 M v1= σ1u1 M v2= σ2u2 我们现在可以简单描述下经过M线性变换后的向量x 的表达形式。由于向量 v1和v2是正交的单位向量,我们可以得到如下式子: x = (v1x) v1 + (v2x) v2 这就意味着: M x = (v1x) M v1 + (v2x) M v2 M x = (v1x) σ1u1 + (v2x) σ2u2 向量内积可以用向量的转置来表示,如下所示 v x = v T x 最终的式子为 M x = u1σ1v1T x + u2σ2v2T x M = u1σ1v1T + u2σ2v2T 上述的式子经常表示成 M = UΣV T u 矩阵的列向量分别是u1,u2 ,Σ是一个对角矩阵,对角元素分别是对应的σ1和σ2,V 矩阵的列向量分别是v1,v2。上角标T表示矩阵V 的转置。 这就表明任意的矩阵M是可以分解成三个矩阵。V 表示了原始域的标准正交基,u 表示经过M 变换后的co-domain的标准正交基,Σ表示了V 中的向量与u 中相对应向量之间的关系。(V describes an orthonormal basis in the domain, and U describes an orthonormal basis in the co-domain, and Σ describes how much the vectors in V are stretched to give the vectors in U.) 如何获得奇异值分解?( How do we find the singular decomposition? ) 事实上我们可以找到任何矩阵的奇异值分解,那么我们是如何做到的呢?假设在 原始域中有一个单位圆,如下图所示。经过M 矩阵变换以后在co-domain中单位圆会变成一个椭圆,它的长轴(M v1)和短轴(M v2)分别对应转换后的两个标准正交向量,也是在椭圆范围内最长和最短的两个向量。

SVD分解

数学之美之SVD分解2012-07-03 10:48:59 分类:C/C++ 所谓SVD,就是要把矩阵进行如下转换:A = USV T the columns of U are the eigenvectors of the AA T matrix and the columns of V are the eigenvectors of the A T A matrix. V T is the transpose of V and S is a diagonal matrix. By definition the nondiagonal elements of diagonal matrices are zero. The diagonal elements of S are a special kind of values of the original matrix. These are termed the singular values of A. 1 The Frobenius Norm 一个矩阵所有元素的平方和再开方称为这个矩阵的Frobenius Norm。特殊情况下,行矩阵的Frobenius Norm 为该向量的长度 2 计算A转置 A*At At*A

3 计算S 在SVD中,将AAt的特征值从大到小排列,并开方,得到的就是奇异值。 比如上图中,特征值为40,10.因此奇异值为6.32,3.16。矩阵的奇异值有如下特性: a 矩阵的奇异值乘积等于矩阵行列式的值 6.32*3.16 = 20 = |A| b 矩阵A的 Frobenius Norm等于奇异值的平方和的开方 总结一下计算S的步骤:1 计算A T和A T A;2 计算A T A的特征值,排序并开方。 由此可以得到S,下面来看如何计算 U,V T 4 计算V和V T 利用A T A的特征值来计算特征向量

矩阵分解——SVD分解

定义:设A 是m*n 矩阵,A H A 的特征值为0..........121===≥≥≥≥+n r r λλλλλ,则称 )....3,2,1......(r i i i ==λσ为矩阵A 的奇异值, r 为A 的秩。存在m 阶酉矩阵U 和N 阶酉矩阵V ,使得V U A r N r M r r M r N r ???? ?? ??=-?-?--?∑ )()()() (000,其中????? ?????? ?=∑r σσσ.... 2 1 。 在matlab 中的实现为: (1)S=svd(A) -----仅返回A 的奇异值S (2)[U,S,V]=svd(A) ------返回完全的形式 ????? ??????? 128 4 11731062951 构造矩阵 >> A=reshape(1:12,4,3) A = 1 5 9 2 6 10 3 7 11 4 8 12 求矩阵的奇异值 >> S=svd(A) S = 25.4368 1.7226 0.0000 矩阵的分解 >> [U,S,V]=svd(A) U = -0.4036 0.7329 0.4120 0.3609 -0.4647 0.2898 -0.8184 -0.1741 -0.5259 -0.1532 0.4006 -0.7345 -0.5870 -0.5962 0.0057 0.5477 S = 25.4368 0 0 0 1.7226 0 0 0 0.0000 0 0 0 V = -0.2067 -0.8892 0.4082

-0.8298 0.3804 0.4082 在这里我们知道, U*S*V ans = 1.4682 8.8076 -5.2222 2.1852 10.3842 -5.2338 2.9021 11.9609 -5.2455 3.6191 13.5375 -5.2572 其并不为原始的A. 应用:很多情况下,线性方程组Ax=b 没有解,因此我们计算其最小二乘解,即使得||Ax-b||2最小的x ,设A 的SVD 分解为V U A r N r M r r M r N r ???? ?? ?? =-?-?--?∑ )()()() (000, 由于2-范数具有酉不便性,因此||Ax-b||2=b Vx U r N r M r r M r N r -?????? ? ? -?-?--?∑ )()()() (000=b U Vx H r N r M r r M r N r -???? ?? ??-?-?--?∑ )()()() (000,由 此Ax=b 的最小二乘解即是b U Vx H r N r M r r M r N r =???? ?? ?? -?-?--?∑ )()()() (000的最小二乘解。 令Vx y =,b U c H =,c y r N r M r r M r N r =???? ?? ?? -?-?--?∑ )()()() (000的最小二乘解为 ]0....,0,0,,..... ,[ 2 2 11 r r c c c y σσσ=,所以原方程组的最小二乘解为:y V x H =。 示例:求线性方程组?? ?? ? ?????=???????? ??3214232 21 x 构造矩阵 >> A=[1 2;2 3;2 4]; >> b=[1 2 3]'; 判断有无解 >> rank(A) ans = 2 >> rank([A,b]) ans = 3 由于rank(A)!= rank([A,b]),所以方程无解。 求解U,S,V >> [U,S,V]=svd(A) U =

特征值分解及奇异值分解在数字图像中的应用

特征值分解及奇异值分解在数字图像中的应用 摘要:目前,随着科学技术的高速发展,现实生活中有大量的信息用数字进行存储、处理和传送。而传输带宽、速度和存储器容量等往往有限制,因此数据压缩就显得十分必要。数据压缩技术已经是多媒体发展的关键和核心技术。图像文件的容量一般都比较大,所以它的存储、处理和传送会受到较大限制,图像压缩就显得极其重要。当前对图像压缩的算法有很多,特点各异,类似JPEG 等许多标准都已经得到了广泛的应用。本文在简单阐述了矩阵特征值的数值求解理论之后,介绍了几种常用的求解矩阵特征值的方法,并最终将特征值计算应用到图像压缩中。以及奇异值分解(Singular Value Decomposition ,SVD) 。奇异值分解是一种基于特征向量的矩阵变换方法,在信号处理、模式识别、数字水印技术等方面都得到了应用。由于图像具有矩阵结构,有文献提出将奇异值分解应用于图像压缩[2],并取得了成功,被视为一种有效的图像压缩方法。本文在奇异值分解的基础上进行图像压缩。 关键词:特征值数值算法;奇异值分解;矩阵压缩;图像处理 引言 矩阵的特征值计算虽然有比较可靠的理论方法,但是,理论方法只适合于矩阵规模很小或者只是在理论证明中起作用,而实际问题的数据规模都比较大,不太可能采用常规的理论解法。计算机擅长处理大量的数值计算,所以通过适当的数值计算理论,写成程序,让计算机处理,是一种处理大规模矩阵的方法,而且是一种好的方法。常用的特征值数值方法包括幂法、反幂法、雅克比方法、QR 分解法等。其中,幂法适用于求解矩阵绝对值最大的特征值,反幂法适合求解矩阵的逆矩阵的特征值,雅克比方法适合求解对称矩阵的特征值,QR分解法主要使用于求中小型矩阵以及对称矩阵的全部特征值。矩阵乘以一个向量的结果仍是同维数的一个向量。因此,矩阵乘法对应了一个变换,把一个向量变成同维数的另一个向量,变换的效果当然与方阵的构造有密切关系。图像压缩处理就是通过矩阵理论减少表示数字图像时需要的数据量,从而达到有效压缩。数字图像的质量很大程度上取决于取样和量化的取样数和灰度级。取样和量化的结果是一个实际的矩阵。图像压缩是数据压缩技术在数字图像上的应用,它的目的是减少图像数据中的冗余信息从而用更加高效的格式存储和传输数据。图像数据之所以能被压缩,就是因为数据中存在着冗余。图像数据的冗余主要表现为:图像中相邻像素间的相关性引起的空冗余;图像序列中不同帧之间存在相关性引起的时间冗

基于奇异值分解的图像压缩处理

矩阵奇异值分解在图像压缩中的应用 电子科技大学 微固学院 贾旺旺 [摘要]本文首先介绍了矩阵的奇异值分解(SVD)定理,然后讨论了基于矩阵奇异值分解的图像压缩编码原理,最后文中给出了实例,并用matlab 编程实现了图像的压缩和重构,发现随着图像压缩比的减小,图像传输时间增大,但重构后得到的图像失真度减小了。 [关键词]奇异值分解 图像压缩 压缩比 一.引言 随着网络的快速发展,数据量的增长也十分迅速,这使人们必须想办法如何能以最少的存储空间,最大的传输效率来进行数据的存储和传输。如在宇航中,拍摄得到的图像文件一般都比较大且数量也很多,它的存储,传输和处理会受到一定的限制,因此图像压缩就显得格外重要。图像压缩技术就是要减少图像数据中的冗余信息从而以更加高效的格式存储和传输数据。 图像压缩的基本方法包括无损压缩的行程长度编码,熵编码法;有损压缩的色度抽样法,变换编码,分形压缩等。近几年,基于矩阵奇异值分解的图像压缩方法也得到了很多学者的关注[1] 。因为图像的像素点具有矩阵的结构,我们可以利用奇异值分解来对任意阶数的矩阵操作。本文就是利用了矩阵的奇异值分解,达到了图像压缩的目的。 二. 矩阵奇异值分解原理[2] 引理 1 的非零特征值相同 的特征值均为非负实数,则有 设H H H H H H n m r AA A A AA A A AA rank A A rank A rank C A ,)3(,)2()()()()1(==∈? ) ()()()(00)(0 0)()1(:1111111A A rank A rank A A rank A rank Ax Ax Ax Ax A x Ax A x X k n Ax A k A A rank H H H H H H H H H =?≤?=?==?=?-=?=维,记为的解空间为设证明0 ),(),(),(),(0)2(≥?===≤?=λααλλααααααλααA A A A A A H H

相关文档
相关文档 最新文档