西电学术之秋报告2012

时间:2019-05-12 06:05:49下载本文作者:会员上传
简介:写写帮文库小编为你整理了多篇相关的《西电学术之秋报告2012》,但愿对你工作学习有帮助,当然你在写写帮文库还可以找到更多《西电学术之秋报告2012》。

第一篇:西电学术之秋报告2012

“学术之秋”学术报告心得体会

2012年10月25日,我们智能感知与图像处理教育部重点实验室迎来了第八届“学术之秋”学术报告活动,对这次学术报告会,从所里领导到基层员工,从各位老师到每位学生都予以高度重视,不仅请到所里每位知名老师,电院精英还请来了梁昌洪校长,ABBASS等多位国际国内知名学者,教授以就一些和我们,他们就自己所研究方向及相关的学术课题进行了详细生动的讲解。这次报告会长达五天时间,在这五天内,我们聆听了各位老师关于他们目前学术研究的工作总结,虽然对于我们这些刚刚开始了解学术研究的学生们,很多东西听起来都不是很懂,但根据老师们的报告,我们对于目前一些研究的热点问题有了进一步的了解,也促使我们去了解相关方面的知识。结合各位老师讲解中的一些问题,通过查阅文献,我更深入的学习了我们学习相关的学术知识,可以说是收获颇丰。

在本次报告活动中杨淑媛教授做了关于视觉注意下的高效SAR目标信息感知的报告,王爽教授做了关于超分辨技术研究的报告,吴家骥教授做了关于图像压缩中的学习的报告,王斌副教授基于偏微分方程的图像分割方法的报告,公茂果教授做了基于模糊聚类的图像分割与变化检测的报告,李阳阳教授量子学习多目标聚类研究,张小华副教授做了关于低秩法去噪方面的报告,白静副教授做了基于第二代Directionlets的遥感影像压缩算法的报告……各位老师精彩的汇报让我们茅塞顿开,受益匪浅,同时对研究产生浓厚的兴趣。

总结各位老师的报告,通过查阅文献资料,结合自己方向涉及的几个重要知识点,我将对一些概念做概述性的介绍:

一、图像超分辨率算法

图像超分辨率率(super resolution,SR)是指由一幅低分辨率图像(lower solution,LR)或图像序列恢复出高分辨率图像(high resolution,HR)。HR意味着图像具有高像素密度,可以提供更多的细节,这些细节往往在应用中起到关键作用。要获得高分辨率图像,最直接的办法是采用高分辨率图像传感器,但由于传感器和光学器件制造工艺和成本的限制[1],在很多场合和大规模部署中很难实现。因此,利用现有的设备,通过超分辨率技术获取HR图像(参见图1)具有重要的现实意义。

图1 图像超分辨率示意图

图像超分辨率技术分为超分辨率复原和超分辨率重建,许多文献中没有严格地区分这两个概念,甚至有许多文献中把超分辨率图像重建和超分辨率图像复原的概念等同起来,严格意义上讲二者是有本质区别的,超分辨率图像重建和超分辨率图像复原有一个共同点,就是把在获取图像时丢失或降低的高频信息恢复出来。然而它们丢失高频信息的原因不同,超分辨率复原在光学中是恢复出超过衍射级截止频率以外的信息,而超分辨率重建方法是在工程应用中试图恢复由混叠产生的高频成分。几何处理、图像增强、图像复原都是从图像到图像的处理,即输入的原始数据是图像,处理后输出的也是图像,而重建处理则是从数据到图像的处理。也就是说输入的是某种数据,而处理结果得到的是图像。但两者的目的是一致的,都是由低分辨率图像经过处理得到高分辨率图像。另外有些文献中对超分辨率的概念下定义的范围比较窄,只是指基于同一场景的图像序列和视频序列的超分辨处理,实际上,多幅图像的超分辨率大多数都是以单幅图像的超分辨率为基础的。在图像获取过程中有很多因素会导致图像质量下降,如传感器的形状和尺寸、光学系统的像差、大气扰动、运动、散焦等。另外,在成像、传输、存储过程中,会引入不同类型的噪声,这些都会直接影响到图像的分辨率。此外,数字化采集过程也会影响图像的分辨率,欠采样效应会造成图像的频谱混叠,使获取的图像因变形效应而发生降质。由于军事侦察及医学图像、卫星图像、视频应用及其它许多领域的实际需要,人们对得到的图像的质量要求越来越高。虽然光学元件能有效的限制传感器阵列上的图像频带宽度,使获取的图像又可能避免变形效应的发生。但这要求光学元件与传感器阵列进行有效的组合,而这在实际场合中是很难做到的,同时提升硬件要花费很高的经济成本,图像质量的提高也是有限的,因此,超分辨率图像复原技术就显得更加重要了,其中,图像超分辨率技术是数字图像处理领域中的一个重要分支。随着图像超分辨率理论和技术的日益成熟,图像超分辨率技术的应用更加广泛。本文着重对图像超分辨率方法进行阐述和分析,以向人们展示超图像分辨率技术的发展方向和应用前景。1)图像超分辨率发展的背景及现状

超分辨率概念最早出现在光学领域。在该领域中,超分辨率是指试图复原衍射极限以外数据的过程。Toraldo di Francia在1955年的雷达文献中关于光学成像第一次提出了超分辨率的概念。复原的概念最早是由J.L.Harris和J.w.Goodman分别于1964年和1965年提出一种称为Harris-Goodman频谱外推的方法。这些算法在某些假设条件下得到较好的仿真结果,但实际应用中效果并不理想。Tsai &Huang首先提出了基于序列或多帧图像的超分辨率重建问题。

1982,D.C.C.Youla和H.Webb在总结前人的基础上,提出了凸集投影图像复原(Pocs)方法。1986年,S.E.Meinel提出了服从泊松分布的最大似然复原(泊松-ML)方法。1991年和1992年,B.R.Hunt和PJ.Sementilli在Bayes分析的基础上,提出了泊松最大后验概率复原(泊松-MAP)方法,并于1993年对超分辨率的定义和特性进行了分析,提出了图像超分辨率的能力取决于物体的空间限制、噪声和采样间隔。

近年来,图像超分辨率研究比较活跃,美国加州大学Milanfar等提出的大量实用超分辨率图像复原算法,Chan等从总变差正则方面,Zhao等、Nagy等从数学方法、多帧图像的去卷积和彩色图像的超分辨率增强方面,对超分辨率图像恢复进行了研究。Chan等研究了超分辨率图像恢复的预处理迭代算法。此外,Elad等对包含任意图像运动的超分辨率恢复进行了研究;Rajan和Wood等分别从物理学和成像透镜散射的角度提出了新的超分辨率图像恢复方法;韩国Pohang理工大学对各向异性扩散用于超分辨率。Chung-Ang图像科学和多媒体与电影学院在基于融合的自适应正则超分辨率方面分别进行了研究。

国内许多科研院所和大学等对超分辨率图像恢复进行研究,其中部分是关于频谱外推、混叠效应的消除,其他主要是对国外超分辨率方法所进行的改进,包括对POCS算法和MAP算法的改进,对超分辨率插值方法的改进,基于小波域隐马尔可夫树(HMT)模型对彩色图像超分辨率方法的改进以及对超分辨率图像重构方法的改进。

2)图像超分辨率方法的分类

图像超分辨率按要处理的图像源可分为单幅图像超分辨和多幅图像超分辨。单幅图像超分辨率是指恢复出由于图像获取时丢失的信息(主要是指高频信息),多幅图像超分辨率是指从低分辨率的图像序列恢复出高分辨率的图像。基于序列或多幅图像的超分辨率增强就是利用这些不同,但相互补充的信息以及目标的先验信息,从一系列低分辨率的图像恢复出高分辨率的单幅图像。该思想与前述的单幅图像超分辨率方法相比,其优点是除了利用物体的先验信息和单幅图像的信息之外,还充分利用了不同图像之间的补充信息,因此,其超分辨率增强能力高于单幅图像超分辨率方法。但是在实际应用中,获得同一场景的图像序列常常是很困难,例如在未来高技术局部战争条件下,战场环境瞬息万变,战场信息稍纵即逝,因此给军事侦察提出了更高的要求,在这种情况下,要想获得同一场景的多幅图像很难,因此,单幅图像的超分辨率技术就显得尤为重要。同时,多幅图像的超分辨率方法大多都是以单幅图像的超分辨率为基础的,只有对单幅图像的超分辨率图像进行更广泛深入地研究,多幅图像的超分辨率技术才能有更广阔的前景。目前,单幅图像的超分辨率研究较少,多幅图像超分辨率已经成为研究的热点,就是因为多幅图像比单幅图像所含的可利用的信息量大。

图像超分辨率按实现的具体方法主要可分为空域法和频域法。频域方法是在频域上消除频谱混叠,改善空间分辨率;空间域方法是在图像像素的尺度上,通过对图像像素点的变换、约束而改善图像质量的方法。

频率域方法是图像超分辨率中的一类重要方法。目前比较流行的是能量连续降减法和消混叠重建方法。消混叠重建方法是通过解混叠而改善影像的空间分辨率实现超分辨率。中国科学院遥感应用研究所从分辨率低的欠采样图像会导致相应空间频率域频谱混叠的理论出发,给出了多次欠采样图像在频率域混叠的更一般的公式,并给出一种针对不同分辨率图像解频谱混叠的逐行迭代方法,该方法在有噪声的情况下也具有很好的收敛性,取得了很好的效果。

频域方法实际上是在频域内解决图像内插问题,其观察模型是基于傅里叶变换的移位特性。频域方法基于以下三条基本性质:(1)傅里叶变换的平移特性。(2)连续傅里叶变换和离散傅里叶变换之间的混叠关系。(3)原始场景的带宽有限。频域方法理论简单,运算复杂度低,很容易实现并行处理,具有直观的去变形超分辨率机制。但这类方法的缺点是所基于的理论前提过于理想化,不能有效地应用于多数场合,只能局限于全局平移运动和线性空间不变降质模型,包含空域先验知识的能力有限。

空域方法的适用范围较广,具有很强的包含空域先验约束的能力,主要包括迭代反投影方法(IBP)、集合论方法(如凸集投影:POCS)、统计复原方法(最大后验概率估计MAP和最大似然估计ML),混合MAP/POCS方法以及自适应滤波方法,人工神经网络法、基于非均匀采样的插值法、基于最优化技术的方法等。其中,非均匀样本内插方法、迭代反投影方法等结合先验信息的能力很弱,在改善图像超分辨率效果方面受到了一定的限制。因此,研究和应用较多的是凸集投影方法和最大后验概率估计方法。下面重点介绍几种常用的超分辨率方法的特点。

3)几种常用的图像超分辨率方法

对超分辨率问题的求解,通常是构造一个前向关系模型,低分辨率图像和高分辨率图像之间的关系可以表述为

ykDBjMk,jxjnj,1j,kp,(1)其中,p为图像序列帧数,xj、yk和nj分别为待求的第j帧高分辨率图像、第k帧观察到的低分辨率图像和图像获取时的噪声,矩阵D、Bj和Mk,j分别为下采样矩阵、模糊矩阵和第j帧和第k帧之间运动矢量所构成的运动矩阵。关于模糊矩阵和运动矩阵的先后关系,WANG Z Z等[2]指出,如果更换两者的位置会引起系统误差。设H=DBM,则式(1)即可简化为

yHxn

(2)

求解式(2)需要确定H,也就是求解或者确认式(1)中的D、B、M和噪声n,这包括以下几个问题:(1)运动估计,需要从观察到的低分辨率图像得到精确的运动矢量,并使用插值等方法去近似高分辨率图像的运动矢量;(2)图像模糊的估计,通常需要对点扩散函数进行计算或假设;(3)噪声估计,噪声会极大地影响系统的求解,对于噪声的估计是非常重要的一步。

SR技术在早期研究中仅指基于多幅图像的还原方法,将基于单幅图像的增强称为插值,而目前多数文献中将这2种情况均称为超分辨率。超分辨率技术自Tsai和Huang提出利用多帧图像序列来恢复高分辨率图像以来,至今已有二十余年,其间大量算法被提出。目前,图像超分辨率研究可分为3个主要范畴:基于插值、基于重建和基于学习的方法。1.基于插值的方法

基于多帧图像插值技术的方法是超分辨率研究中最直观的方法。这类方法首先估计各帧图像之间的相对运动信息,获得HR图像在非均匀间距采样点上的像素值,接着通过非均匀插值得到HR栅格上的像素值,最后采用图像恢复技术来去除模糊和降低噪声。典型的方法包括:Rajan和Chaudhuri通过分解、插值和融合3个步骤实现的通用插值方法;TAOHJ等提出的小波域的双线性插值;Lertrattanapanich和Bose提出的使用基于光滑性约束的Delaunay三角化插值算法等。这类方法的优点是算法快速易行,适合并行计算,基本可以满足实时要求,但因为不能引入额外有用的高频信息,因而很难在SR图像中得到锐化的效果,同时,也没有考虑到LR图像的像素值并不是HR图像的理想采样值,而是对HR图像像素值的空间平均和卷积效应这一事实。2.基于重建的方法

(1)凸集投影法(POCS)

Stark和Oskoui[3]最早提出的凸集投影方法可以简单而有效地求解超分辨率问题,通过把高分辨率图像的解空间上与一系列的代表高分辨率图像性质的约束集(如非负性、能量有界性、观测数据一致性、局部光滑性等)相交,可以得到一个更小的解空间。从高分辨率图像空间的一点出发,不断利用迭代投影的方法寻找满足所有约束凸集的下一点,最终获得高分辨率图像的估计。对于初始值x,设每一个约束集定义一个凸集投影算子Pk,则计算过程为

0

xnPN...P3P2P1x0

(3)凸集投影法的优点在于算法简单,能够充分利用先验知识。但是缺点在于解不惟一,收敛过程依赖初值的选择,解不稳定。

(2)贝叶斯分析方法

贝叶斯分析法包括最大后验概率估计法(MAP)和最大似然估计法(ML),最大后验概率估计方法的优点是在解中可以直接加入先验约束、能确保解的存在和唯

一、降噪能力强和收敛稳定性高等。缺点是收敛慢和运算量大。另外,最大后验概率估计方法的边缘保持能力不如凸集投影方法,由这类方法获得的高分辨率图像上的细节容易被平滑掉。

(3)迭代反投影法(IBP)Irani和Peleg[4]提出的迭代反向投影法是超分辨率图像复原中具有代表性的一种方法。首先估计一个高分辨率图像作为初始解x0,通常采用单幅低分辨率图像的插值结果。然后根据系统模型,计算其模拟低分辨率图像:

y0Hx0n

(4)如果x与原始高分辨率图像精确相等,并且若式(4)模拟的成像过程符合实际情况,则模拟低分辨率序列y应与观察得到的实际低分辨率图像y相同。当两者不同时,将它们之间的误差yy反向投影到x上使其得到修正:

0000

x1x0HBP(yy0)

(5)当误差满足要求时,迭代结束,Irani和Peleg证明了算法是收敛的。算法简单、直观。但是,HBP较难选择,并且没有能够利用到先验知识,解不稳定、不惟一。

(4)最大后验概率方法

Schultz和Stevenson[5]提出的MAP方法是典型的概率论方法,他们把高分辨率图像和观察得到的低分辨率图像当作两个不同的随机过程。根据MAP准则:

xmapargmaxx[Pr(x|y)]

(6)使用条件概率对式(6)进行变形、取负对数并舍弃常数项,可得

xmapargmixx[logPr(y|x)logPr(x)]

(7)其中,高分辨率图像的先验模型Pr(x)可以由图像的先验知识确定,通常采用的MRF模型使图像的局部在光滑性和边缘保持上同时获得了比较好的效果,条件概率密度Pr(y|x)则由系统的噪声统计量确定。

其它还有基于高斯先验假设和动态树推理算法等。MAP方法的优点在于有惟一解,如果有合理的先验假设可以获得非常好的图像边缘效果。但是其显著的缺点就在于计算量相对比较大。

(5)正规化法

Nguyen[6]等提出的正则有参超分辨率图像恢复把模糊矩阵C表示为带参数σ的B(σ),对应地将H表示为H(σ),则系统模型式(2)改写为:

yH()xn

(8)正则有参超分辨率恢复采用恒定正则算子,使用一个最优正则参数,构造关于图像模糊参数σ、正则参数λ和高分辨率图像x的Tikhonov最小化能量泛函,形成正则超分辨率恢复模型: 

2{x,,}argmin[||yH()x||22||x||2]

(9)

Nguyen等采用广义交叉验证(GCV)的参数估计方法确定参数σ和λ,最后使用预处理共轭梯度法(PCG)求解式(9)导出的线性方程:

(HTHH)1xHTy

(10)正则化算法的优点在于不要求点扩散函数(PSF)为圆形,也不需要对图像和噪声做任何统计假设,但是正则化项在抑制噪声的同时也抑制了图像的细节,容易产生过于平滑的效果。

(6)混合方法

通过最小化有特定集合约束的最大后验概率/最大似然估计(MAP/ML)的损失函数,得到高分辨率图像的估计就是最大后验概率/最大似然估计/凸集投影(MAP/ML/POCS)混合方法。Schultz和Stevenson最早将MAP优化与投影约束相结合,后来Elad和Feuer提出了一种通用的最大似然估计/凸集投影(ML/POCS)超分辨率方法:

min2{[yHx]TW[yHx][Sx]TV[Sx]},{xCk,1kM}

(11)

其中,W为噪音的自相关函数,S为Laplacian算子,V为控制光滑程度的加权矩阵,Ck为其他的非椭圆约束。

混合方法结合了MAP和POCS各自的优点,充分利用了先验知识并且收敛的稳定性也比较好,是目前为止最好的基于重建的算法。

上述介绍的6类常用的基于重建的超分辨率方法,共同的优点是只需要一些局部性的先验假设,就能在一定程度上缓解了插值方法所产生的模糊或者锯齿效果。但缺点也是显而易见的:当抽取率较大(如4倍以上)时,获取准确的亚像素运动信息是不现实的,且不准确的运动信息对重建效果影响很大。鉴于亚像素的配准困难,不少文献中都假设已经获得准确的亚像素精度的运动。即便假设已获得准确的亚像素运动信息,当抽取率较大时,重建效果通常也不太理想,主要原因是重建过程中能够使用的先验知识太少,低分辨率图像提供的信息不满足高分辨率需求。4)基于学习的方法

基于学习的方法是近年来超分辨率算法研究的热点方向。其基本思路是通过给定的训练图像集,计算测试样本的patch与训练图像集patches之间的邻域关系,并构造最优权值约束,来获得先验知识并逼近测试样本的高分辨率图像。当低分辨率数据提供的信息不满足高分辨率需求时,基于学习的方法可以获得更多的图像高层信息,因而具有很大优势,在图像超分辨率应用中可能得到比较理想的结果,为在大抽取率情况下恢复必要的高频信息给出了新的思路。基于学习的方法认为,低分辨率的图像已经拥有充分的用于推理预测其所对应的高分辨率部分(例如边缘等)的信息,通过对一组同时包括高分辨率图像和低分辨率图像的训练集合的训练,学习到一个联合的系统模型。这个模型的表现形式可以是一组学习到的插值核、一个低分辨率patch的查找表、低分辨率patch与高分辨率patch之间的映射系数等。

(1)Example-based方法

Freeman[7]等首次使用Markov网络对图像的空间关系进行建模,他把图像分成一些5×5或7×7的小块,成为patch,通过学习,获得表示高分辨率patch之间的转移概率矩阵Ψ和表示高分辨率patch和低分辨率patch之间的转移概率矩阵Φ。对于一个给定的测试图像,同样把它分割成patch之后,对于每一个patch在寻找它在Markov网络中的位置,同时获得它与一些高分辨率patch之间的关系,再根据训练得到的转移概率把高频分量添进去。

Example-based方法是较早提出使用学习的方法实现超分辨率,相对于之前的基于插值和基于重建的方法,这种方法可以获取丰富的高频信息,在放大4倍时,仍能获得较高的图像质量。但缺点也比较明显,训练样本的选择要求比较高,并且对于图像中的噪声极为敏感。

(2)邻域嵌入方法(neighbor embedding)Chang等首次提出了基于邻域嵌入的图像超分辨率方法,其假定了高分辨率和对应的低分辨率图像块在特征空间可以形成具有相同局部几何结构的流形。首先通过训练得到高分辨率patch和低分辨率patch的流形,接着对于测试样本中的每一个patch,寻找其在低维流形中的k近邻表示,最后使用这些系数加权得到其在高维流形中patch的估计,即高分辨率patch.但是,高低分辨率块在邻域嵌入时并不是总具有邻域保持,要提高邻域保持,有2个可能的途径:一个是选择更合理的描述图像块的特征,以便能更好地保持邻域关系,一个是给定高分辨率邻域块,选择更好的重建函数。因此,为了改进邻域嵌入方法的不足,张军平提出了基于直方图匹配的训练样本选择算法,基于残差局部嵌入的方法和基于边缘检测和特征选择的方法。

相对于Example-based的方法,邻域嵌入的方法需要较少的训练样本,并且对于噪声的敏感度不是非常强。

(3)支持向量回归方法(SVR)Karl和Nguyen等提出了使用支持向量回归实现图像的超分辨率,他们通过加入一些额外的约束条件把kernel学习由半正定规划问题转化为二次规划问题求解。对于测试数据,则先对图像patch进行内容分类,再在其所属的类中做支持向量回归,得到高分辨率patch。

SVR方法实现了对样本的自动选择,训练集较小,并且该算法在频域中同样适用。但是从实验结果来看,图像的对比度有所下降。

(4)虚幻脸(hallucination face)Baker和Kanade最早提出仅对人脸做超分辨率,他们的复原算法采用从训练patch数据库中查询与测试低分辨率patch最相近的作为输出,并且取得了8倍的放大效果。

LIUC等通过主成分分析(PCA)估计一个全局的脸而后采用非参数的局部模型进行拟合。同样采用特征脸表示的还有文献。另外,还有一些工作是针对人脸视频做超分辨率,其中Dedeoglu等的算法在特定的人脸库中甚至取得了16倍的放大效果。相对于其他的超分辨率技术,虚幻脸由于增加了人脸这个非常重要的先验条件,使得超分辨率的质量大幅提高,但是如果针对通用人脸(更多的表情、更多的人种和更广的年龄分布),目前的算法就只能获得4倍左右的放大效果。

(5)稀疏表示法(sparse presentation)最近,Yang[8]等提出了使用图形patch的稀疏表示来实现超分辨率。他们从一些高分辨率图像中随机选取一些patch组成一个过完备的词典(overcomplete dictionary),接着对于每一个测试patch,通过线性规划的方法求得该测试patch在这个过完备的词典下的稀疏表示,最后以这组系数加权重构出高分辨率的图像。

这种方法克服了邻域嵌入方法中对于邻域大小的选择问题,即在求解稀疏表示的时候,无需指定重构所需要基的个数,其表示系数和基的个数将同时通过线性规划求解得到。然而,目前该方法的缺陷就在于过完备词典的选择,随机的选择只能实现特定领域的图像的超分辨率,对于通用图像的超分辨率效果较差。3 图像超分辨率的发展前景

图像超分辨率在视频、遥感、医学和安全监控等领域具都有十分重要的应用,另外其应用也逐步涉及到其它各个领域。在高清数字电视方面采用超分辨率技术会进一步减少成本,提高画面的质量。超分辨率技术在采集军事与气象遥感图像应用可实现高于系统分辨率的图像观测。在医学成像系统中(如CT、MRI和超声波仪器等),可以用图像超分辨率技术来提高图像质量,对病变目标进行仔细的检测。在银行、证券等部门的安全监控系统中,当有异常情况发生后。可对监控录像进行超分辨率重建,提高图像要害部分的分辨率,从而为事件的处理提供重要的线索。在未来超分辨技术广泛的应用前景必然会推动这一技术不断发展。

为了获得高质量的高分辨率的图像,满足不同情况下的实际应用要求,未来的发展主要集中在以下几个方面:

(1)精确有效的运动估计算法[9]。图像的运动变形、模糊和噪声等降质因素具有密切的关系,在图像超分辨率增强中,需要对图像序列进行亚像素精度的运动估计。由于运动估计只能利用低分辨率序列上的信息,所以很难达到精确的运动估计。虽然目前已经有很多比较成熟的运动估计方法,但在实际应用场合仍然无法获得令人满意的运动补偿效果,同时这些方法的适用场合非常有限,需要发展和寻求新的运动模型,对运动进行精确估计。

(2)针对视频压缩格式和编解码技术,在图像超分辨率算法中综合考虑成像模型和压缩算法带来的图像污染效果,以及运动补偿和编码传输机制,提高压缩视频的超分辨率能力。

(3)完善现有算法,不断发展新的算法。目前的很多图像超分辨率算法在一定程度上解决了实际应用中存在的问题,但这些方法仍然存在着较大的缺陷和不足。所以在超分辨率算法方面,还需要进一步提高超分辨率图像增强的能力,减小计算量,加快运算的收敛速度,适用于不同的图像要求。

(4)在应用范围上将不局限于单色和单张高分辨率图像的恢复,还要扩展到多通道和彩色图像、三维立体成像、动态多媒体序列、压缩图像、CCD阵列成像和核磁共振成像的超分辨率恢复与增强。

(5)提高算法的效率,目前已有的超分辨率算法很多,不少算法的效果还是不错的,但由于算法复杂度高,运算量大,因此实用性不强。

(6)盲重建。很多算法都假设模糊函数(PSF函数)已知,但是在实际中,准确的估计PSF函数有一定的困难,通常都只能知道PSF函数的部分信息,因此,盲重建也是一个重要的研究方向。

二、图像去噪问题研究

图像在生成和传输过程中常常因受到各种噪声的干扰和影响而使图像降质,这对后续图像的处理(如分割、压缩和图像理解等)将产生不利影响。噪声种类很多,如:电噪声、机械噪声、信道噪声和其他噪声。在图像处理中,图像去噪是一个永恒的主题,为了抑制噪声,改善图像质量,便于更高层次的处理,必须对图像进行去噪预处理。

计算机图像处理主要采取两大类方法:一是在空间域中的处理,即在图像空间中对图像进行各种处理;另一类是把空间域中的图像经过正交变换到频域,在频域里进行各种处理然后反变换到空间域,形成处理后的图像。人们也根据实际图像的特点、噪声的统计特征和频谱分布的规律,发展了各式各样的去噪方法。其中最为直观的方法,是根据噪声能量一般集中于高频而图像频谱则分布于一个有限区间的这一特点,采用低通滤波方式来进行去噪,或对图像进行平滑处理等,这属于第一类图像处理方法。还有就是在频域进行处理,如:傅立叶变换、小波基变换。1含噪模型

现实中的数字图像在数字化和传输过程中,常受到成像设备与外部环境噪声干扰等影响,成为含噪图像。去除或减轻在获取数字图像中的噪声称为图像去噪[1,2],在图像去噪之前我们先要建立一个含噪图像的模型,为了简便,我们研究如下的加性噪声模型,即含噪图像仅由原始图像叠加上一个随机噪声形成: gx,yfx,yvx,y fx,y表示图像,vx,y为噪声,含噪图像记为gx,y。1)噪声特性

在对这个含噪模型进行研究之前,我们有必要了解一下噪声的一些特性,经常影响图像质量的噪声源可分为三类。人们对其生成原因及相应的模型作了大量研究[3]:(1)电子噪声。在阻性器件中由于电子随机热运动而造成的电子噪声是三种模型中最简单的,一般常用零均值高斯白噪声作为其模型,它可用其标准差来完全表征。

(2)光电子噪声。由光的统计本质和图像传感器中光电转换过程引起,在弱光照的情况下常用具有泊松分布的随机变量作为光电噪声的模型,在光照较强时,泊松分布趋向于更易描述的高斯分布。

(3)感光片颗粒噪声。由于曝光过程中感光颗粒只有部分被曝光,而其余部分则未曝光,底片的密度变化就由曝光后的颗粒密集程度变化所决定,而算曝光颗粒的分布呈现一种随机性。在大多数情况下,颗粒噪声可用高斯白噪声作为有效模型。

通过以上分析可以看出,绝大多数的常见图像噪声都可用均值为零,方差不同的高斯白噪声作为其模型,因而为了简便和一般化,我们采用零均值的高斯白噪声作为噪声源。2)传统去噪方法

对随时间变化的信号,通常采用两种最基本的描述形式,即时域和频域。时域描述信号强度随时间的变化,频域描述在一定时间范围内信号的频率分布。对应的图像的去噪处理[4]方法基本上可分为空间域法和变换域法两大类。前者即是在原图像上直接进行数据运算,对像素的灰度值进行处理。变换域法是在图像的变换域上进行处理,对变换后的系数进行相应的处理,然后进行反变换达到图像去噪的目的。(1)均值滤波

邻域平均法是一种局部空间域处理的算法。设一幅图像fx,y为NN的阵列,处理后的图像为gx,y,它的每个像素的灰度级由包含x,y领域的几个像素的灰度级的平均值所决定,即用下式得到处理后的图像: gx,y1Mfi,j i,jS式中x,y0,1,2,N1;s是以x,y点为中心的邻域的集合,M是s内坐标总数。图像邻域平均法的处理效果与所用的邻域半径有关。半径愈大,则图像模糊程度也愈大。另外,图像邻域平均法算法简单,计算速度快,但它的主要缺点是在降低噪声的同时使图像产生模糊,特别在边缘和细节处,邻域越大,模越厉害。(2)中值滤波

中值滤波是一种非线性滤波[5-7],由于它在实际运算过程中并不需要图像的统计特性,所以比较方便。中值滤波首先是被应用在一维信号处理技术中,后来被二维图像信号处理技术所应用。在一定的条件下,可以克服线性滤波器所带来的图像细节模糊,而且对滤除脉冲干扰及图像扫描噪声最为有效。但是对一些细节多,特别是点、线、尖顶细节多的图像不宜采用中值滤波的方法。

中值滤波的基本原理是把数字图像或数字序列中一点的值用该点的一个邻域中各点值的中值代替。

设有一个一维序列f1,f2,„,fn,取窗口长度为m(m为奇数),对此序列进行中值滤波,就是从输入序列中相继抽出m个数,fiv,„,fi1,„,f1,„,fi1,„,fiv,其中i为窗口的中心位置,vm1,再将这m个点按其数值大2小排列,取其序号为正中间的那作为出。用数学公式表示为: YiMedfiv,,fi,,fiv iZ,vm1 2例如:有一个序列为{0,3,4,0,7},则中值滤波为重新排序后的序列{0,0,3,4,7}中间的值为3。此例若用平均滤波,窗口也是取5,那么平均滤波输出为034072.8。因此平均滤波的一般输出为: 5Zifivfiv1fifivm iZ

对于二位序列Xij进行中值滤波时,滤波窗口也是二维的,但这种二位窗口可以有各种不同的形状,如线状、方形、圆形、十字形、圆环形等。二维数据的中值滤波可以表示为:

Yi,jMed{Xij},A为滤波窗口

A在实际使用窗口时,窗口的尺寸一般先用33再取55逐渐增大,直到其滤波效果满意为止。对于有缓变的较长轮廓线物体的图像,采用方形或圆形窗口为宜,对于包含尖顶角物体的图像,适宜用十字形窗口。使用二维中值滤波最值得注意的是保持图像中有效的细线状物体。与平均滤波器相比,中值滤波器从总体上来说,能够较好地保留原图像中的跃变部分。2频域低通滤波法

在分析图像信号的频率特性时,一幅图像的边缘,跳跃部分以及颗粒声代表图像信号的高频分量,而大面积的背景区则代表图像信号的低频分量。用滤波的方法滤除其高频部分就能去掉噪声使图像得到平滑由卷积定理可知: Gu,vHu,vFu,v 式中,Fu,v是含噪声图像的傅里叶变换,Gu,v是平滑后图像的傅里叶变换,Hu,v是低通滤波器传递函数。利用Hu,v使Fu,v的高频分量得到衰减,得到Gu,v后再经过反变换就得到所希望的图像gx,y了。低通滤波平滑图像的系统框图2-1所示。

傅里叶变换F线性低通滤波器G傅里叶反变换uufx,y,v,vgx,y 频域空间滤波框图 经典去噪方法要么完全在频率域,要么完全在空间域展开。这两类消噪方法造成了顾此失彼的局面,虽然抑制了噪声,却损失了图像边缘细节信息,造成图像模糊[9]。因此,提出了基于小波变换的去噪方法研究。小波分析由于在时域频域同时具有良好的局部化性质和多分辨率分析的特点,能有效地把信号和噪声区别开来,因此不仅能满足各种去噪要求如低通、高通、陷波、随机噪音的去除等,而且与传统的去噪方法相比较,有着无可比拟的优点,成为信号分析的一个强有力的工具,被誉为分析信号的数学显微镜。2.去噪

近年来,小波理论得了非常迅速的发展,由于其具备良好的时频特性和多分辨率特性,小波理论成功地在许多领域得到了广泛的应用。现在小波分析已经渗透到自然科学、应用科学、社会科学等领域。在图像去噪领域中,应用小波理论进行图像去噪受到许多专家学者的重视,并取得了非常好的效果。2小波去噪的研究现状

在数学上,小波去噪问题的本质是一个函数逼近问题,即如何在有小波母函数伸缩和平移所展成的函数空间中,根据提出的衡量准则,寻找对原图像的最佳逼近,以完成原图像和噪声的区分。这个问题可以表述为:

optargminffs

foptoptfopt代表最优解

ffsfn,fs为原图像,fn为噪声图像

Iff为实际图像,Wspan2jj1,2J

JT为IW的函数空间影射

小波去噪方法也就是寻找实际图像空间到小波函数空间的最佳映射,以便得到原图像的最佳恢复。从信号的角度看,小波去噪是一个信号滤波的问题,而且尽管在很大程度上小波去噪可以看成是低通滤波,但是由于在去噪后,还能成功地保留图像特征,所以在这一点上优于传统的低通滤波器。由此可见,小波实际上是特征提取和低通滤波功能的综合,其等效框图如图2-2所示。

图2-2 小波去噪的等效框图

小波去噪方法:小波去噪的方法有多种,如利用小波分解与重构的方法滤波降噪、利用小波变换模极大值的方法去噪、利用信号小波变换后空域相关性进行信噪分离、非线性小波阈值方法去噪、平移不变量小波去噪法,以及多小波去噪等等。归结起来主要有三类:模极大值检测法、阈值去噪法和屏蔽(相关)去噪法。其中最常用的就是阈值法去噪,本文主要研究阈值去噪。3.小波变换理论基础

1)傅里叶变换到小波变换

傅立叶变换是一个强有力的数学工具,它具有重要的物理意义,即信号fx的傅立叶变换Fwfxeiwxdx表示信号的频谱。正是傅立叶变换的这种重要

的物理意义,决定了傅立叶变换在信号分析和信号处理中的独特地位。傅立叶变换用在两个方向上都无限伸展的正弦曲线波作为正交基函数,把周期函数展成傅立叶级数,把非周期函数展成傅立叶积分,利用傅立叶变换对函数作频谱分析,反映了整个信号的时间频谱特性,较好地揭示了平稳信号的特征。从数学角度来看,傅立叶变换是通过一个基函数的整数膨胀而生成任意一个周期平方可积函数。通过傅立叶变换,在时域中连续变化的信号可转化为频域中的信号,因此傅立叶变换反映的是整个信号在全部时间下的整体频域特征,但不能反映信号的局部特征。

傅立叶变换有如下不足:

(1)当我们将一个信号变换到频域的时候,其时间上的信息就失去了。当观察一个信号的傅立叶变换,我们不可能知道特定的事件何时发生;

(2)为了从模拟信号中提取频谱信息,需要取无限的时间量,使用过去的和将来的信号信息只是为了计算单个频率的频谱;

(3)因为一个信号的频率与它的周期长度成反比,对于高频谱的信息,时间间隔要相对较小以给出比较好的精度。而对于低频谱的信息,时间间隔要相对较宽以给出完全的信息,亦即需要一个灵活可变的时间—频率窗,使在高“中心频率”时自动变窄,而在低“中心频率”时自动变宽,傅立叶变换无法达到这种要求,它只能作全局分析,而且只对平稳信号的分析有用。

但是,在实际应用中,常常有些非平稳信号,如音乐、语音信号等它们的频域特性都随着时间的变化而改变,这时傅立叶变换明显表现出了其中的不足。为此,D.Gabor于1946年提出了著名的Gabor变换,之后又进一步发展为短时傅立叶变换(Short Time Fourier Trans-form),简记为STFT,又称窗口傅立叶变换。窗口傅立叶变换(STFT)克服了傅立叶变换不能同时进行时间频域的局部分析,在非平稳信号的分析中起到了很好的作用。其主要特点是:用一窗口函数gt对信号fx作乘积运算,实现在τ附近平稳和开窗,然后再进行傅立叶变换。其变换如下:

Gfw,ftgtej2wtdt

由于窗口傅立叶变换所定义的窗函数的大小和形状均与时间和频率无关而保持不变,在实际应用中也存在其局限性。主要有两方面:一是因为高频信号一般持续时间短,而低频信号持续时间长,因此需对高频信号采用小时窗,对低频信号采用大时窗。二是在进行数值计算时,为了便于计算,需对基函数进行离散化,但Gabor基无论怎样离散都不能组成一组正交基,因此会给计算带来不便。为了克服这些缺陷,使窗口具有自适应特性和平稳功能,1984年,法国地球物理学家J.Morlet在分析地震数据时提出将地震波通过一个确定函数的伸缩和平移来展开。之后,他与A.Grossman共同研究,发展了连续小波变换的几何体系,将任意一个信号可分解成对空间和尺度的贡献。1985年,YMeyer,A.G.rossman与Daubechies共同寻找了连续小波空间的一个离散子集,得到了一组离散的小波基(称为小波框架)。1986年,由Y.Meyer发现了构成希尔伯特空间的规范正交基,从而证明了小波正交系的存在。1987年,Mallat将计算机视觉领域内的多尺度分析的思想引入小波分析中,提出了多分辨率分析的概念,并提出了相应的分解和重构快速算法—Mallat算法,从而统一了以前所有具体正交小波基的构造。小波变换是一种新的变换分析方法,它的主要特点是通过变换能够充分突出问题某些方面的特征,因此,小波变换在许多领域都得到了成功地应用,特别是小波变换的离散数字算法已被广泛用于许多问题的变换研究中。从此,小波变换越来越受到人们的重视,其应用领域来越来越广泛,如:信号处理、图像处理、模式识别、语音识别等,并取得了可喜成果。

2)小波理论的基本概念 A.连续小波变换

设tL2R,其傅里叶变换为w,当w满足允许条件(完全重构条件):

wCR^2dw w时,我们称w为一个基本小波或母小波(Mother Wavelet)。它说明了基本小波在其频域内具有较好的衰减性。其中,当w0时,有w=0,即tdt0同时有0。因此,一个允许的基本小波的幅度频谱类似于带通滤波器的传递函数。事实上,任何均值为零(即tdt0)且在频率增加时以足够快的速

度消减为零(空间局域化特征)的带通滤波器的冲激响应(传递函数),都可以作为一个基本小波。

将母函数t经过伸缩和平移后得到:

a,bt1atb,其中a,bR;a0 a称其为一个小波序列。其中a为伸缩因子,b为平移因子。通常情况下,基本小波t以原点为中心,因此a,bt是基本小波t以tb为中心进行伸缩得到。基本小波t被伸缩为ta(a1时变宽,而a1时变窄)可构成一组基函数。在大尺度a上,膨胀的基函数搜索大的特征,而对于较小的a则搜索细节特征。

对于任意的函数ftL2R的连续小波变换为:

Wfa,bf,a,ba2Rtbftdt

a当此小波为正交小波时,其重构公式为: ft1C1tbWa,bdadb a2fa在小波变换过程中必须保持能量成比例,即

22daWa,bdbCfxdx f2aRRR由于基小波t生成的小波a,bt在小波变换中对被分析的信号起着观测窗的作用,所以t还应该满足一般函数的约束条件:

tdt

故w是一个连续函数,这意味着,为了满足重构条件式(3-2),w在^^^原点必须等于零,即 0tdt0

此即说明t具有波动性。为了使信号重构的实现上是稳定的,除了满足重构条件外,还要求t的傅立叶变换满足如下稳定性条件:

A2w^j2B

式中,0AB。连续小波变换具有以下重要性质:

(1)线性性:一个多分量信号的小波变换等于各个分量的小波变换之和。(2)平移不变性:若ft的小波变换为Wfa,b,则ft的小波变换为Wfa,b。

(3)伸缩共变性:若ft的小波变化为Wfa,b,则fct的小波变换为1cWf(ca,cb),c0

(4)自相似性:对应于不同尺度参数a和不同平移参数b的连续小波变换之间是自相似性的。

(5)冗余性:连续小波变换中存在信息表述的冗余度〔redundancy〕,小波变换的冗余性也是自相似性的直接反映,它主要表现在以下两个方面:

①由连续小波变换恢复原信号的重构分式不是唯一的。也就是说,信号ft的小波变换与小波重构不存在一一对应关系,而傅立叶变换与傅立叶反变换是一一对应的。

②小波变换的核函数即小波函数a,bt存在许多可能的选择(例如,它们可能是非正交小波,正交小波,双正交小波,甚至允许是彼此线性相关的)。

小波的选择并不是任意的,也不是唯一的。它的选择应满足定义域是紧支撑的(Compact Support),即在一个很小的区间之外,函数值为零,函数应有速降特性,以便获得空间局域化。另外,它还要满足平均值为零。也就是说,小波应具有振荡性,而且是一个迅速衰减的函数。

连续小波变换式(3-4)是用内积来表示的,而数学上的内积表示ft与a,bt的相似程度,所以由式(3-4),当尺度a增加时,表示以伸展了的a,bt波形去观察整个ft;反之,当尺度a减小时,则以压缩的a,bt波形去衡量ft局部。可以说,尺度因子类似于地图中的比例因子,大的比例(尺度)参数看全局而小的比例(尺度)参数看局部细节。因此,有人对小波变换特性作如下形象比喻:人们希望既看到森林,又看清树木。所以,先通过望远镜看清全貌,进而通过显微镜观察我们最感兴趣的细节。小波变换就能达到这个目的,它既是望远镜,又是显微镜,是一架变焦镜头。B离散小波变换

在实际运用中,尤其是在计算机上实现时,连续小波必须加以离散化。因此有必要讨论连续小波a,bt)和连续小波变换Wfa,b的离散化。需要强调指出的是,这一离散化都是针对连续的尺度参数和连续平移参数b的,而不是针对时间t的。这一点与我们以前的习惯不同。在公式(3-3)中,a ,b ∈R;a≠0是容许的。为方便起见,在离散化中,总限制a只取正值。通常,把连续小波变换中尺度参数a和平移参数b的离散化公式分别取作aa0j,bb0j,这里jZ,扩展步长a01是固定值,为方便起见,总是假定a01。所以对应的离散小波函数j,kt即可写作:

j,kt1tka0jb01jatkb0 0jaa0a0o而离散化小波变换系数则可表示为:

Cj.kftj,ktdtf,j,k0

其重构公式为:

ftCCj,kj,kt

C是一个与信号无关的常数。如何选择a0和b0,才能保证重构信号的精度呢?显然,网络点应尽可能密(即a0和b0尽可能的小),因为如果网络点越稀疏,使用的小波函数j,kt和离散小波系数Cj,k就越少,信号重构的精确度也就会越低。由于图像是二维信号,因此首先需要把小波变换由一维推广到二维。令fx1,x2表

x1,x2表示二维的基本小波,示一个二维信号,x1,x2分别是其横坐标和纵坐标,对应的尺度函数为x1,x2。若尺度函数可分离,即:x1,x2x1x2。令x1是与x1对应的一维小波函数,则二维的二进小波可表示为以下三个可分离的正交小波基函数:

1x1,x2x1x2

2x1,x2x1x2 3x1,x2x1x2

这说明在可分离的情况下,二维多分辨率可分两步进行。先沿x1方向分别用x1和x2做分析,把fx1,x2分解成平滑和细节两部分,然后对这两部分再沿x2方向用x2和x1做同样分析,所得到的四路输出中经x1,x2处理

1fx1,x2,D12fx1,x2,所得的一路是第一级平滑逼近A1fx1,x2,其它三路输出D1w设想成理D13fx1,x2都是细节函数。如果把x1和x1的对应频谱w,想的半带低通滤波器h和高通滤波器g,则A1fx1,x2反映的是x1 , x2两个方向1fx1,x2 反映的是水平方向的低频分量和垂直方向的高频分量,的低频分量,D1D12fx1,x2反映的是水平方向的高频分量和垂直方向的低频分量,D13fx1,x2反映的是两个方向的高频分量。对图像进行小波变换就是用低通滤波器h和高通滤波器g对图像的行列进行滤波(卷积),然后进行二取一的下抽样。这样进行一次小波变换的结果便将图像分解为一个低频子带(水平方向和垂直方向均经过低通滤波)LL和三个高频子带,即用HL表示水平高通、垂直低通子带,用LH表示水平低通、垂直高通子带,用HH表示水平高通、垂直高通子带。分辨率为原来的1/2,频率范围各不相同。第二次小波变换时只对LL子带进行,进一步将LL子带分解为LL1,LH1,HL1和HH1,分辨率为原来的1/4,频率范围进一步减半,以此类推。所以,进行一次小波变换得到4个子带,进行M次分解就

三、聚类问题研究

将物理或抽象对象的集合分成由类似的对象组成的多个类的过程被称为聚类。由聚类所生成的簇是一组数据对象的集合,这些对象与同一个簇中的对象彼此相似,与其他簇中的对象相异。“物以类聚,人以群分”,在自然科学和社会科学中,存在着大量的分类问题。聚类分析又称群分析,它是研究(样品或指标)分类问题的一种统计分析方法。聚类分析起源于分类学,但是聚类不等于分类。聚类与分类的不同在于,聚类所要求划分的类是未知的。聚类分析内容非常丰富,有系统聚类法、有序样品聚类法、动态聚类法、模糊聚类法、图论聚类法、聚类预报法等。

1.聚类概念与聚类过程

迄今为止,聚类还没有一个学术界公认的定义。这里给出Everitt在1974年关于聚类所下的定义:一个类簇内的实体是相似的,不同类簇的实体是不相似的;一个类簇是测试空间中点的会聚,同一类簇的任意两个点间的距离小于不同类簇的任意两个点间的距离:类簇可以描述为一个包含密度相对较高的点集的多维空间中的连通区域,它们借助包含密度相对较低的点集的区域与其他区域(类簇)相分离。

事实上。聚类是一个无监督的分类,它没有任何先验知识可用。聚类的形式描述如下: 令U{p1,p2,...,pn}表示一个模式(实体)集合pi表示第i个模式i{1,2,...,n};CtU,t1,2,...,k,Ct{pt1,pt2,...,ptw};proximity(pms,pir),其中,第1个下标表示模式所属的类,第2个下标表示某类中某一模式,函数proximity用来刻画模式的相似性距离.若诸类Ct为聚类之结果,则诸Ct需满足如下条件:

1)kt1CtU.

2)对于Cm,CrU,CmCr,有CmCr(仅限于刚性聚类);

MINpminCm,prvCr,Cm,CrU&CmCr(proximity(pmin,prv))MAXpmx,pmyCn,CmU(proximity(pmx,pmy))

典型的聚类过程主要包括数据(或称之为样本或模式)准备、特征选择和特征提取、接近度计算、聚类(或分组)、对聚类结果进行有效性评估等步骤。

聚类过程:

1)数据准备:包括特征标准化和降维. ’

2)特征选择:从最初的特征中选择最有效的特征,并将其存储于向量中. 3)特征提取:通过对所选择的特征进行转换形成新的突出特征.

4)聚类(或分组):首先选择合适特征类型的某种距离函数(或构造新的距离函数)进行接近程度的度量;而后执行聚类或分组.

5)聚类结果评估:是指对聚类结果进行评估.评估主要有3种:外部有效性评估、内部有效性评估和相关。

2.聚类算法的类别

没有任何一种聚类技术(聚类算法)可以普遍适用于揭示各种多维数据集所呈现出来的多种多样的结构。根据数据在聚类中的积聚规则以及应用这些规则的方法,有多种聚类算法.聚类算法有多种分类方法,聚类算法大致分成层次化聚类算法、划分式聚类算法、基于密度和网格的聚类算法和其他聚类算法。具体方法介绍如下:

1)层次聚类算法

层次聚类算法又称为树聚类算法,它使用数据的联接规则,透过一种层次架构方式,反复将数据进行分裂或聚合,以形成一个层次序列的聚类问题解。层次聚合算法的计算复杂性为O(n2),适合于小型数据集的分类。a.层次聚合算法:该算法由树状结构的底部开始逐层向上进行聚合。假定样本集S{o1,o2,...,on}共有n个样本。

oo,o,...,onHA1[初始化]。置每个样本i为一个类;

/*共形成n个类:12*/ HA2[找最近的两个类].distance(or,ok)minou,ovS,ouovdistance(ou,ov)/*从现有的所有类中找到距离最近(相似度最大)的两个类HA3[合并和和1*/ oror和

ok*/ 和

ok],将类

or和

ok合并成一个新类ork;/*现有的类数将减HA4.若所有的样本都属于同一类,则终止本算法;否则,返回步骤HA2。b.传统聚合规则:两个类之间距离的度量方法是传统层次聚合算法的重要组成部分,它主要包括两个重要参数相似性度量方法和联接规则.这里采用欧式距离作为相似性度量方法,联接规则主要包括单联接规则、完全联接规则、类间平均联接规则、类内平均联接规则和沃德法.这几种联接规则可定义如下(其中,含||xy|是欧几里德范数,ni和nk分别指类

or和

ok)中的样本个数,C(nink,2)表示从nink个元素中抽出两个元素的不同组合的方法总数): 单联接聚合规则:d(oi,ok)minxoi,yok||xy||;

全联接聚合规则:d(oi,ok)maxxoi,yok||xy||;

类间平均联接聚合规则:d(oi,ok)(1/nink)xo(yo||xy||);

ik类内平均联接聚合规则:d(oi,ok)(1/C(nink,2))x,y(o,o)||xy||,其中,n

ik是融合聚类的中心。

沃德法:d(oi,ok)(1/(nink))x(o,o)||xn||2,其中,n是融合聚类的中心。

ikc.新层次聚合算法

Binary—Positive方法:2007年,Gelbard等人提出了一种新的层次聚合算法,被称为正二进制(binary.positive)方法。该方法把待分类数据以正的二进制形式存储于一个二维矩阵中,其中,行表示记录(对象),列表示其属性的可能取值。记录对应的取值为1或者O,分别表示此记录有对应的属性值或者不存在对应属性值。因此,相似性距离计算只在被比较的二进制向量中的正比特位上进行,即只在取值为1的记录(对象)之间进行。有以Dice距离为代表的多种Binary.Positve相似性测量方法。Gelbard等人采用Wine,Iris,Eeolic和Psychology balance这4种数据集对11种聚类算法进行了实验,结果表明,对于此4种数据集中的任意一种数据的聚类结果,Binary.Positive等4种方法在聚类结果的准确率方面,从总体上来看都是最好的。同时他们还认为,将原始数据转换成正二进制会改善聚类结果的正确率和聚类的鲁棒性。对于层次聚类算法尤其如此。连续数据的粗聚类算法(rough clustering ofsequential data,简称RCOSD):2007年.Kumar等人面向连续数据提出了一种新的基于不可分辨粗聚合的层次聚类算法RCOSD。在该算法中,不可分辨关系被扩展成具有不严格传递特性的容差关系。使用相似性的上近似形成初始类,使用约束相似性的上近似概念形成后续类,其中的一个相对的相似性条件被用作合并准则。RCOSD的关键思想是寻找能捕捉数据序列的连续信息及内容信息的一个特征集,并把这些特征集映射到一个上近似空间,应用约束相似性上近似技术获得粗类簇的上近似,其中一个元素可以属于多个类簇.该算法引入S3M作为Web数据的相似性度量方法,S3M既考虑了项的出现次序又考虑了集合内容。该算法每一次迭代可以合并两个或多个类,所以加快了层次聚类速度。该算法能够有效挖掘连续数据,并刻画类簇的主要特性,帮助Web挖掘者描述潜在的新的Web用户组的特性。Pradeep Kumar等人在本质连续的MSNBC Web导航数据集上的实验结果表明,与使用序列向量编码的传统层次化聚类算法相比,RCOSD聚类算法是可行的。算法给出的描述方法能够帮助Web挖掘者鉴别潜在的有意义的用户组。2)划分式聚类算法

划分式聚类算法需要预先指定聚类数目或聚类中心,通过反复迭代运算,逐步降低目标函数的误差值,当目标函数值收敛时,得到最终聚类结果。a.K均值聚类

1967年,MacQueen首次提出了K均值聚类算法(K-means算法).迄今为止,很多聚类任务都选择该经典算法。该算法的核心思想是找出K个聚类中心c1,c2,...,cK,使得每一个数据点xi和与其最近的聚类中心cv的平方距离和被最小化(该平方距离和被称为偏差D).

K均值(K-means)聚类算法(对n个样本进行聚类)K1[初始化]。随机指定K个聚类中心(c1,c2,...,cK);

K2[分配xi]。对每一个样本xi。找到离它最近的聚类中心cv,并将其分配到cv所标明类;

K3[修正cw]。将每一个cw移动到其标明的类的中心; K4[计算偏差]。Di1[minr1_kd(xi,cr)2];

K5[D收敛?]。如果D值收敛,则return(c1,c2,...,ck)并终止本算法;否则,返回步骤K2。

K-means算法的优点与不足。优点:能对大型数据集进行高效分类,其计算复杂性为O(tKmn),其中,t为迭代次数,K为聚类数,m为特征属性数,n为待分类的对象数,通常,K,m,tn。在对大型数据集聚类时,K-means算法比层次聚类算法快得多。不足:通常会在获得一个局部最优值时终止;仅适合对数值型数据聚类;只适用于聚类结果为凸形(即类簇为凸形)的数据集。

以经典K-means算法为基础,研究者们提出了很多新的改进的K-means算法,下面对其中的一些算法加以介绍: b.K-modes算法

K-modes-Huang算法:在阐述K-modes算法之前,先对Means与Modes做简单介绍。在K-means算法中,mean为类簇中心或称为质心,是指一个类簇中所有对象关于属性的均值,最初可随机指定。在K-modes算法中,modes可定义如下:设X{X1,X2,...,Xn}是一个数据集,XiX由m个分类属性{A1,A2,...,Am}来描述,Xi可表示成向量{q1,q2,...,qm},也可表示成属性-值对的合取式[A1q1]...[Amqm]。Q需使i1...mdl(Xi,Q)取最小值,d1(Xi,Q)表示Xi与Qin之间的距离;Q不必是的一个X的一个元素。

1998年,Huang为克服K-means算法仅适合于数值属性数据聚类的局限性,提出了一种适合于分类属性数据聚类的K-modes算法。该算法对K-means进行了3点扩展:引入了处理分类对象的新的相异性度量方法(简单的相异性度量匹配模式),使用modes代替means,并在聚类过程中使用基于频度的方法修正modes,以使聚类代价函数值最小化.

这些扩展允许人们能够直接使用K-means范例聚类有分类属性的数据。无须对数据进行变换。K-modes算法的另一个优点是modes能给出类的特性描述,这对聚类结果的解释是非常重要的。事实上,K-modes算法比K-means算法能够更快收敛。Huang使用众所周知的大豆疾病数据集对其算法进行了测试,结果表明,K-modes算法具有很好的聚类性能。进一步地,他用包含50万条记录和34个分类属性的健康保险数据集进行了测试,结果证明,该算法在(聚类的)类数和记录数两个方面是真正可伸缩的。与K-means算法一样,K-modes算法也会产生局部最优解,依赖于初始化modes的选择和数据集中数据对象的次序。初始化modes的选择策略尚需进一步研究.

d.一致性保留K-means算法(K-means-CP)2004年,Ding等人提出一致性保留K-means算法(K-means-CP)。最近邻一致性是统计模式识别中的一个重要概念,他们将这个概念扩展到数据聚类,对一个类中的任意数据点,要求它的k最近邻和k互最近邻都必须在该类中。他们研究了类k最近邻一致性的性质、提出了kNN和kMN一致性强制和改进算法,并提出了将类k最近邻或类k互最近邻一致性作为数据聚类的一种重要质量度量方法。他们选用互联网上20个新闻组数据集进行了实验,结果表明,k最近邻一致性、k互最近邻一致性以及算法聚类的正确率都得到显著改善。同时,这也表明局部一致性信息可帮助全局聚类目标函数优化。

算法K-means-CP:

1.[初始化]。随机选择K个点作为初始类的中心(c1,c2,...,ck)

2.[分配近邻集]。分配一个近邻集S;//*将S分配到离其最近的类Cp中,pargminv1,...,KxS(ximv)。

i23.[更新类中心]。置mvxCxi/nv。

iv4.[收敛否?]。质心不再移动,则终止算法;否则返回步骤2。e.模糊聚类算法 1969年,Ruspini首次将模糊集理论应用到聚类分析中,提出了模糊聚类算法(fuzzy c-means,简称FCM)。FCM算法是图像分割使用最多的方法之一,它的成功主要归功于为解决每个图像像素的隶属需要引入了模糊性.比之脆弱(crisp)或硬分割方法,FCM能够保留初始图像的更多信息。然而,FCM的一个缺点是不考虑图像上下文中的任何空间信息,这使得它对噪声和其他人造图像非常敏感。人们围绕FCM算法开展了大量研究,下面只对这方面的最新研究作简单介绍:

2006年,李洁等人提出基于特征加权的模糊聚类新算法NFWFCA.传统模糊尽均值算法、K-modes算法和尽原型算法都假定样本矢量的各维特征对聚类贡献相同。但在实际应用中,由于样本矢量的各维特征来自不同传感器,存在测量精度及可靠性等差异,样本矢量的各维特征对聚类影响不尽相同。以模糊K-原型算法为基础,算法NFWFCA采用ReliefF算法确定各维特征的权重,数值特征权值的计算方法为:

diff_hitrdiff_missr RRrr属性特征权值的计算方法为

diff_hitcdiff_missc

RRcc从而修正目标函数为

2r2J(W,P)i1,...,k[j1,...,nwij|xrjmprjm|2j1,...,nwijm1,...,tmqt1,...,mqc(xcjp,pcjq)]当J(W,P)最小时,聚类结果最优.NFWFCA还可以将模糊K-均值、K-modes和K-原型等算法合而为一。当c0时,对应加权模糊K-均值算法;当r0时,对应加权模糊K-modes算法;当c0且r0时,对应加权模糊K-原型算法.

通过各种实际数据集的测试,实验结果表明,该算法的聚类结果较之传统模糊K-均值算法、K-modes算法和K-原型算法要更准确、更高效。同时,该算法还可以分析各维特征对聚类的贡献度,有效进行特征提取和优选,这对聚类算法研究及其应用都有一定的意义。

3)基于网格和密度的聚类算法 基于网格和密度的聚类方法是一类重要的聚类方法,它们在以空间信息处理为代表的众多领域有着广泛应用。特别是伴随着新近处理大规模数据集、可伸缩的聚类方法的开发,其在空间数据挖掘研究子域日趋活跃。

与传统聚类算法不同:基于密度的聚类算法,通过数据密度(单位区域内的实例数)来发现任意形状的类簇;基于网格的聚类算法,使用一个网格结构,围绕模式组织由矩形块划分的值空间,基于块的分布信息实现模式聚类。基于网格的聚类算法常常与其他方法相结合,特别是与基于密度的聚类方法相结合。

4)其他聚类方法 a.ACODF聚类算法

2004年,Tsai等人出一个新颖的具有不同偏好的蚁群系统(novel As)一ACODF(a novel data clustering approach for data mining in large databases),用来解决数据聚类问题(当时未见用于数据聚类的ACO(ant colony optimization)算法的报道)。设计一种不需要求解任何硬子问题(any hard sub-problem),但能给出近似最优解的聚类算法,是人们所期待的。ACODF能够快速获得最优解,它所包含的3个重要策略介绍如下:(1)应用不同偏好的(favorable)ACO策略.每个蚂蚁只需访问全部城市数的十分之一,并且访问城市数目逐次减少;几次循环之后,两点间相对短的路径的信息素浓度增加,两点间相对长的路径的信息素减少。因此,蚂蚁喜欢访问距离近的节点,并用自己的信息素加强此路径(由其喜欢访问的节点组成);最后形成具有较高浓度的路径,即聚类完成。(2)为减少获得局部最优解所需要访问的城市数量,对蚁群采用模拟退火策略。为此设计了两个公式:ns(t1)ns(t)T,其中,ns是蚁群在T0函数期间访问的节点数,T是一个常数(T0.95)。nft()12nst()3/inst()(/unr)3,其中,nf是蚁群在T1函数期间访问的节点数,nf(t1)表示当蚁群的访问节点数,nf(t)表示上一次循环蚁群访问的节点数,run2,i{1,2}。(3)使用锦标赛(tournament)选择策略。与传统ACO不同,ACODF采用锦标赛选择技术进行路径选择。即从N条路径中随机选择K条路径,再从这K条路径中选择最短路径NK。

Tsai等人分别进行了模拟和实际数据实验。模拟数据实验:首先选含579个数据的数据集,分别用ACODF,GKA和FSOM+K-means等3种算法进行非球形聚类;然后选含300个数据的数据集,依次用上面3种算法进行球形聚类。实际数据实验:采用732个客户信用卡上的8维实际数据,根据客户收入和消费进行聚类。实验结果表明,大多数情况下,ACODF的搜索速度比GKA和FSOM+K-means更快,且错误率比它们更小。

四、合成孔径雷达(SAR)变化检测

合成孔径雷达(Synthetic Aperture Radar,简称SAR)是二战以后发展起来的一种高分辨率成像雷达,它利用以多普勒频移理论和雷达相干为基础的合成孔径技术,突破了真实孔径天线对方位向分辨率的限制,与脉冲压缩技术相结合,实现了远距离目标的二维高分辨率成像,具有全天候、全天时成像及对一些地物的穿透能力等特点。和其他传感器图像相比,能呈现更多的细节,能精确地确定目标地域的大小,能更好地区分临近目标的特性。SAR作为一种新型的遥感技术,以其特有的优势和对传统的遥感系统的互补,正成为遥感领域的研究重点之一。

1951年美国Goedyear公司的Wiley首先提出了合成孔径雷达这一概念。1958年,美国密执安大学进行了飞行试验,获得了世界上第一幅雷达图像。1978年,美国发射了世界上第一颗搭载合成孔径雷达系统的SEASAT卫星,对地球表面1亿平方公里的面积进行了测绘,标志着合成孔径雷达成功地进入了空间领域,掀起了合成孔径雷达系统、信号处理以及应用研究的高潮。伴随信号处理、集成电路技术、微波和天线技术的迅速发展,合成孔径雷达成为了当前雷达技术领域的主流发展领域。

雷达图像与光学图像有以下区别:(1)微波具有穿透特性,可以透过云层、地表观测,不受光线强度的影响。因此成像雷达具有全天候、全天时的工作能力,这是光学成像不具备的优点。而且成像雷达与光学传感器相比,具有更大的侦察范围,可以发现不易被光学传感器发现的目标,得到大范围、高分辨率的图像。

(2)由于成像雷达的回波信号需要进行一系列的复杂处理,因此与光学成像相比,设备更复杂,运算量更大。

(3)成像雷达是相干处理系统,图像中存在相干斑,这是雷达系统固有的缺点。相干斑导致图像质量的下降。因此在成像处理前,往往都要进行相干斑抑制。光学成像由于原理不同,不存在这个问题。(4)雷达成像就是从回波信号中提取目标的后向散射系数,所以图像反映的是被测地域的微波特性,而光学成像依据的是普通的反射。两部分区域光学特性不同,但后向散射系数可能相同。因此雷达图像不能区分这两个区域,在光学图像上区别却很明显。

(5)光学图像通常是垂直照射地面所得,成像雷达则一般是侧视成像。雷达波束以一定的俯角照射被测绘的地域,使得雷达图像具有阴影、迎坡缩短等固有特征。与光学图像相比,雷达图像的轮廓比较清楚,有较好的对比度。

(6)在知道雷达的各种参数(如高度、入射角)的时候,对雷达图像经过插值等处理可以得到相同的比例尺表示,图像不会产生畸变。光学图像由于光在成像透镜的光轴周围的折射率不同,使得图像出现畸变,如远离轨迹处的图像被压缩。

雷达发射和接收的电磁波是向量波,要完整描述一个电磁波,除了要指明它的幅度、相位和频率外,还要指明它的矢量方向,在雷达领域一般用极化描述电磁波的矢量方向。目标对入射波的调制效应,不仅是对幅度、相位和频率的调制,还要对入射波的极化状态进行调制,从而,雷达回波信号不仅包含幅度信息、相位信息、频率和视角信息,还包含有极化信息。要了解目标完全的散射特性,就必须进行极化测量。极化测量和多频率测量、多视角测量一样可以获得更加丰富的目标信息,它是微波遥感领域的一个重要研究方向。

SAR图像的基本性质: 1)SAR图像相干斑特征

SAR图像中的噪声包括通常的系统噪声和斑点噪声,其中斑块噪声对图像质量的影响最大。

系统噪声主要包括系统的非线性影响,最数据进行采样、量化、压缩、传输和解码等数字化过程以及图像本身在成像过程中退化等影响,这些影响因素直接作用到图像上,一般可以用高斯噪声或椒盐噪声描述。

而对SAR图像质量影响最佳的斑点噪声与图像处理所遇到的噪声有本质的不同,这是因为其形成的物理过程有本质区别,即SAR发射的是相干电磁波,雷达脉冲照射的地表单元都包含了很多的散射点,这一单元的总同波是各个散射点的相干叠加,而每个散射点回波的相位同传感器与该点的距离有关,当传感器移动时,所有单元内的散射点的回波相位都发生变化。相幅也随之变化,这样当传感器移动中连续观测同一地表单元时将得到不同的幅度,这种幅度的变化称为衰弱;同样地,具有相同后向散射截面的两个观测单元,如果在细微特征有差异,则它们的回波信号也会不同,这样本来具有常数后向散射截面的图像的同质区域,像元问会出现亮度变化,这种的现象称为斑点。当斑点严重影响SAR图像质量时称为斑点噪声(Speckle)。

SAR图像的斑点噪声是由雷达目标的回波信号的衰落现象引起的,需要复杂的统计分布模型来描述。一般的,根据图像分辨率和对应的地域特性不同,常用来描述斑块噪声的统计分布模型包括瑞利分布、Gamma分布、对数正态分布、K分布和韦伯分布等。斑块噪声使得SAR图像不能正确反映目标的散射特性,严重的影响了图像质量,降低了对图像中目标的信息提取能力。因此,抑制相干斑噪声,是SAR图像应用的重要课题,是SAR信息获取系统不可或缺的组成部分。

2)其他固有特征及其应用

除了相干斑的影响外,SAR图像中还有一些其他固有的特征,如阴影、透视收缩、叠掩等。这些现象增加了SAR图像解译的难度,但是合理利用某些特征,也会得到一些额外的信息。

阴影是指当雷达波束受山峰等高大目标阻挡时,这些目标的背面就收不到微波,因此没有雷达回波,结果在图像的相应位置上出现暗区,这些暗区即为雷达阴影。阴影特征在SAR图像分类中具有一定的作用;它直接可以作为目标存在 的依据,并且能够提供通过目标区域本身不能得到的互补的信息,特别是目标的高度。因此阴影一般作为扩展的图像特征得到了足够的礞视。广泛应用于目标监测和识别,并出现了一些专门的除阴影的算法。图像适量的阴影能够增强地形图像的立体感,丰富了地形信息,有助于地物的判读和解译。

叠掩是指雷达对崎岖的地区成像时,经常会发生山顶(物体顶部)回波先于山谷(物体低部)到达接收机。图像上出现的地形特征与实际的不符合,这种现象称为叠掩。透视收缩是指除垂直照射微波外.所有在图像上量得的地面斜坡的长度都比实际长度短,这种现象称为透视收缩。变化检测存在的问题: 在进行变化检测之前,需要考虑以下几个问题:图像配准和图像校正、门限值的选择、辐射校正等。任何自动变化检测系统都需要考虑这些问题,下面对这些问题进行简单讨论:

1)图像配准和图像校正

所有的变化检测方法都要求对多时相图像进行精确配准,即对应像素点在多幅图像中所在宅间坐标完全相同。如果不能得到较高的图像配准精度,则在整个场景内将有大量的变化区域,这种情况是由图像错位造成的。

2)门限值的选择

大多数变化检测技术要求选择一个门限值,以决定是否发生变化。现在主要有两种选择门限的方法:第一种是交互式方法,解译员调整门限值直到结果满意时为止。第二种方法是使用一些统计测量量,进行自动或半自动门限检验。

3)辐射校正

一些变化检测技术要求进行辐射校正。使用遥感图像数据进行变化检测的前提是由感兴趣的目标变化引起的辐射值的改变要比由一些随机因素引起的辐射值变化要大。这些随机因素包括大气条件、照射角和土壤湿度等。如果变化检测技术对这些因素比较敏感,则就需要考虑进行辐射校正。不同时相或传感器的图像数据可以参考确定没有发生变化的区域进行辐射校正,辐射校正一般采用图像回归法或直方图变换技术。图像变化检测技术:

图像变化检测技术旨在检测相隔一段时间的图像之间发生的变化。图像变化检测技术主要依赖于辐射值或者局部纹理的变化。这些变化町能是由于地表覆盖的真实变化引起的,或者是由照射角、大气条件、传感器精度、地面湿度等条件变化引起的。变化检测的基本前提是相对于由一些随机因素引起的变化,由对象本身变化引起的辐射值或局部纹理的变化是可分的。

在进行变化检测时,能够知道类别的转化信息是非常有意义的,为此就必须对图像进行分类。最初都是人工解译,人工解译依赖于解译员对图像的定性分析,解译结果与解译员的先验知识有很大的关系。对于小图像来说由于人眼对于图形有着较好的分辨能力,所以人工解译较快、较准。但是对于大图像来说,人工解译的工作就比较繁重。同时对于大量的同一地区、不同时间的多时相图像,重复劳动较多。应用计算机来进行变化检测,可以很快地检测出变化的区域,这样就可以使解译员能够很快把注意力转移到感兴趣的区域,提高了效率。在遥感应用中有许多普遍使用的变化检测技术。现行研究应用的变化检测技术主要有以下五种。分类结果比较法、图像差值法、图像比值法、主分量分析法、统计测试法。

1)分类结果比较法

分类结果比较法要求对每一剐图像单独进行分类,然后对多时相图像的分类结果图像进行比较。如果对应像素的类别标签相同,则认为该像素没有发生变化,否则认为该像素发生了变化。分类的方法可以是监督分类方法也可以是非监督分类方法。分类后图像可以用人工目视比较或者计算机比较。此方法的主要缺点是分类错误有组合影响,变化检测的精度等于每幅图像分类精度的乘积。分类结果比较法经常用于检测非城区向城区、森林向农田的转化、土地利用变化、湿地和森林检测等。

2)图像差值法

图像差值法要求图像中每一个像素的灰度值和另一副图像中对应像素的灰度值相减,结果图像代表了在此期间期问该地区的变化。图像差值法可以应用子单一波段(单变量图像差分),也可以应用于多波段(多变量图像差分)。图像差值法经常采用一些辐射校正来减少照射角、强度和视角变化的影响。图像差值法经常用于检测海岸线环境变化、热带森林变化、温带森林变化、沙漠化、农作物分析等。图像差值法是基本的变化检测方法之一。它通过计算多时相配准图像相应像素的差值,从而产生一个差值图像。差值图像表达了场景在两个时间内所发生的变化。一般情形下它是将两幅不同时期图像中对应像素的灰度值相减,得到一幅体现区域变化的差值图像。图像差值法的表达式为:

I(i,j)I1(i,j)I2(i,j)C

其中i,j为像素坐标值,I(i,j)像素灰度值,C为常量。

差值法变化检测方法中的阈值问题,可以等效为对差值图像进行“变化区域”与“不变区域”的两类的划分问题。把图像差值作为变化检测的方法,从理论上来理解是最直观的,它对于单通道不同时相之间的变化检测也是非常有效的。在应用这种方法的时候,必须考虑选取阈值将有变化像元和无变化像元区分开来,阈值的选取需要有一定的经验,可以借助于多次检测的结果。对于多通道不同时相图像的变化,虽然在数学上很容易实现,但由于各种传感器的通道之间往往是互为相关的,势必会造成图像之间的相关,所以在图像差值时会存在许多问题,这在理论上也不甚严密。

3)图像比值法

图像比值法计算已配准的多时相图像对应像素的灰度值的比值,如果在一个像素上没有发生变化,则比值接近1;如果在此像素上发生变化,则比值远大于或远小于1(依靠变化的方向)。图像比值法需要进行辐射校正。相比于罔像差值法,图像比值法对SAR图像上的乘性噪声是不敏感的。

图像比值法需要计算多时相配准图像相应像素的比值。如果没有发生变化,相应波段中的相应像素的期望比值接近于1。如果某些像素位置发生了变化,这个比值将会显著地大于或小于1。图像比值法的表达式为:

I(i,j)I1(i,j)I2(i,j)比值法比差值法对SAR图像中的乘性噪声具有更好的抵抗能力。4)主分量分析法

主分量分析法使用主分量变换(离散K-L变换),主分量变换是一个线性变换,它定义了一个新的正交坐标系统,数据在此坐标系统内是不相关的。主分量变换可以从原始数据的协方差矩阵或相关矩阵的特征向量推出,新坐标系统的坐标轴是由这些矩阵的特征向量定义的。通过向量乘积对每一个单独像素进行变换,得到在一个新空间的新坐标值。每一个特征向量可以看作为一个新波段,像素的坐标值可以看作为在此“波段”上的亮度值。由每一个新“波段”引起的场景方差由相应于矩阵特征向量的矩阵特征值决定。由于在没有变化的区域图像有一个较高的相关,在变化的区域有较低的相关。如果在多时相数据集中变化的主要部分和固定的地表覆盖类型相联系,变化区域在产生的主分量图像上得到增强。由协方差矩阵得到主分量和由相关矩阵得到的主分量是不同的,由相关矩阵推导的主分量变换对于多时相分析是尤其有用的,因为标准化能够减小大气条件和太阳角的影响。主分量分析应用于两个或更多时期的图像集。

5)统计测试法

对于多时相图像可以应用统计测试方法检测是否发生变化。有各种各样的统计测试,两个时期图像数据之间的熵、相关系数和半方差等。此类方法有图像熵法、相关系数法等。

传统的单通道单极化SAR仅能获得地面场景在某一特定极化收发组合下的目标散射特性,所得到的信息是非常有限的。多极化合成孔径雷达(PolSAR)是用来测量辐射信号极化特征的新型成像雷达,它同时发射并同时接收H、V极化脉冲,且各极化脉冲之间是相干的。这样,它不仅能测量振幅,也能记录不同极化状态组合回波的相位差、分析任意极化状态的地物回波信息,大大提高了它对地物的识别能力。除了散射系数矩阵,极化SAR还能得到极化散射功率矩阵(如相干矩阵,协方差矩阵)。这些极化测量矩阵可以用来完全描述目标散射回波的幅度和相位特性。总之,多极化SAR通过调整收发电磁波的极化方式可以获得场景目标的极化散射矩阵,为更加深入地研究目标的散射特性提供了重要的依据,极大地增强了成像雷达对目标信息的获取能力。

具体来说,多极化SAR相比单极化SAR,具有以下优点:(l)提供更加丰富的目标信息。雷达发射的电磁波在目标感应电流而进行再辐射,从而产生散射电磁波,散射波的性质不同于入射波的性质,这是由于目标对入射波的调制效应所致。这种调制效应由目标本身的物理结构特性决定,不同目标对相同入射波具有不同的调制特性。也就是说,散射波含有关于目标的信息,它是目标信息的载体。一个电磁波可由幅度、相位、频率以及极化等参量作完整的表达,分别描述它的能量特性、相位特性、振荡特性和它的矢量特性,而目标对电磁波的调制效应,就体现在调制其幅度、相位、频率以及极化等参量上。散射波的幅度特性、相位特性、频率特性和极化特性与入射波相应参量之间的差异,就成为获得目标信息乃至进一步提取目标分类识别特征的重要依据。极化测量能够提供目标的极化特性。因此相对于非极化测量,极化测量能够提供更加丰富的目标信息。

(2)有利于确定和理解散射机理。极化SAR观测,可以获得目标的散射矩阵,通过对散射矩阵的分析,特别是通过基于散射机理的目标分解,就可以确定目标的散射和成像机理。为了确定相关的散射和成像机理,就要用极化SAR进行测量。

(3)有利于提高目标检测、辨别和分类能力。对于同一目标,在其它条件不变的情况下,使用水平极化波观测和使用垂直极化波观测,会得到不同的散射信息,这一点已广为人知,使用不同的线性极化波照射,回波的强度可以相差15dB甚至更多。这就导致目标识别上的不确定性,因为由于目标方向角(垂直于视线方向,绕视线转动的角)的影响,同一种目标的有效散射截面并不一定相同。要想解释目标的回波,就需要得到每一种线性极化波的回波。进行极化测量,获得散射矩阵后,可以得到任意极化的回波,就能够消除这种不确定性。实践证明极化SAR在许多应用领域都有利于提高目标检测、辨别和分类能力。文献表明加入极化信息处理以后,检测性能可以大大改善。

(4)有利于扩大SAR系统的应用范围。众所周知,不同的观察对象,要用相应的频率、视角和极化的电磁波才能得到最好的观察效果,因此,一部针对一类目标设计的优秀的SAR系统,对于另一类目标来讲可能就是一部很差的系统。这样单极化测量SAR系统的应用范围就会受到极化的限制。由于多极化SAR系统可以得到多个极化状态的SAR图像,其应用范围就得到了很大的扩展。

(5)有利于抑制杂波,提高抗干扰能力。杂波可能是人为的干扰信号,也可能是不感兴趣的目标的回波信号,极化SAR使得我们可以寻找一种极化状态,在该状态下有用信号与无用信号的强弱对比最强,从而提高了杂波抑制和抗干扰能力(尤其是对于单极化的干扰信号)。极化合成孔径雷达的出现,大大拓宽了SAR应用领域,利用极化SAR图像,可以提取更多的信息,这些信息在农林、水文地理学、城市基本设施构成、火山、地震学、考古学以及军事侦察等领域具有无法估量的作用。随着越来越多的PolSAR系统投入使用,获得的PolSAR图像数据越来越丰富,如何对这些图像数据做出快速而准确的解译,一直是迫切需要解决的一个难题。

国内外在雷达图像处理方面的研究可以追溯到60年代,其发展受益于电磁散射理论、非线性理论、现代雷达技术和人工智能技术的发展。首先,目标电磁散射机理方面的研究工作取得了长足的发展,人们对目标特性的了解更加深入,描述目标的数学方法有了新的发展,先进的雷达技术能够提供更加丰富的目标信息。其次非线性理论和人工智能技术被成功地应用到雷达图像的处理,以提取和获得更加丰富的SAR图像信息。

SAR图像解译是SAR从图像处理中非常重要的一块内容。由于SAR图像的信息表达与光学图像有很大的差异,并受到相干斑噪声及阴影、透视收缩、迎坡缩短、顶底倒置等几何特征的影响,使得SAR图像的自动处理比常规图像困难得多。

早期的遥感影像处理和分析都是通过目视解译,依靠纯人工在相片上解译,后来发展为人机交互方式,并应用一系列图像处理方法进行影像的增强,提高影像的视觉效果,利用图像的影像特征(色调或色彩,即波谱特征)和空间特征(形状、大小、阴影、纹理、图形、位置和布局),与多种非遥感信息资料(如地形图、各种专题图)组合,运用相关规律,进行由此及彼、由表及里、去伪存真的综合分析和逻辑推理的思维过程。

随着计算机技术和VLSI的发展,使我们有可能设计合适的算法通过计算机实现SAR图像的自动解译,自动解译比目视解译更为复杂,自动解译的过程不但要模拟目视解译的机理,而且还要结合计算机本身的特点。当前对SAR理解和解译的研究都是以目标识别为目的,并利用特征提取过程模拟人感知目标的过程,用机器学习过程模拟人识别目标的过程。这些与真正意义上的SAR图像理解和解译,即信息的最终获得还相距甚远,但这些理论和方法为自动解译的有效实现奠定了基础。

SAR图像自动地域分类,就是将解译系统中的前端部分单独提取出来作为具体应用的一个典型实例。其目的是对SAR图像的RCS及其对应区域的复杂度进行分类,对图像进行海洋、市区和植被区域等类别标定。

极化SAR图像提供了更加丰富的地物信息,充分发掘和利用这些极化信息,可以更好的确定和理解目标散射机理,从而会带来更好的SAR图像分类结果。极化SAR研究现状:

在极化理论方面,本世纪五十年代初人们己经开始研究多极化雷达的理论。1950年,Sinclair引入了散射矩阵概念,随后,Kennaugh将这一概念引入雷达遥感领域并提出了最佳极化的概念,Graves在其基础上提出了目标的Graves功率矩阵。到了60年代,Huynen发展了Kelmaugh的目标最佳极化概念,对雷达目标的极化散射特性进行了深入细致的研究,极大的更新了极化雷达系统的概念。到了80年代初期,Boerner所领导的研究小组以及JPL实验室的VanZyl几乎同时将目标最佳极化的概念推广到一般的情况,研究了一般情况下雷达目标的最佳极化问题。在大量雷达极化专家的大力推动和影响下,极化雷达理论受到了广泛的重视,特别是在八十年代后期,当极化雷达的优点被美国宇航局确认以后,极化理论得到了迅速的发展。在极化雷达系统研制方面,美国的开L实验室于1985年研制成功第一部实际机载全极化合成孔径雷达CV990机载SAR系统,该系统工作于L波段,四视分辨率大约是 10mx10m。20世纪90年代后,世界各国都在加紧筹划和研制新的可进行长期观测的各种先进技术的空间雷达。目前投入使用的极化SAR系统有机载和星载两种,机载系统有美国的AJRSA侧TOPSAR,德国DLR的E-SAR,加拿大CCRS的C/X-SAR,日本NASDA/JAXA的Pl-SAR,丹麦的EMISAR等,星载系统有美国的SIR-C仪-SAR(航天飞机搭载)、日本的ALOSPALSAR,德国的TerraSAR-X,加拿大的RADARSAT-2等。其中TerraSAR-X和RADARSAT-2都是2007年才发射的。TerraSAR-X是由DLR和民营企业EADS Astrium公司及Infoterra公司共同开发,工作在短波长的x波段,可以在三种模式下工作(sPotLight、StripMap、ScanSAR),在SpotLight模式下最高分辨率可达到1m,在StripMap模式下可以提供从单极化到全极化各种类型的数据,而在ScanSAR模式下可以达到100km的幅宽。RADARSAY-2是由加拿大空间署(CSA)与MDA公司合作研制,运行于C波段,它可以提供11种波束模式,多样化的极化方式,最高分辨率可达到1m。值得一提的是,在汉川地震发生后,对地观测部门用5月16日RADARSAT-2拍摄的数据制成的汉川地区超精细地图,在抗震救灾中发挥了作用。

在国内,中科院电子学研究所从1976年开始了合成孔径雷达的研究,并于1979年研制成功我国第一台机载合成孔径雷达,获得了第一张合成孔径雷达图像。1987年研制成功多条带、多极化机载合成孔径雷达系统。1994年研制成功机载合成孔径雷达实时成像处理器。另外,国内一些高等院校和科研院所也在进行极化SAR理论和极化雷达系统的研究。极化SAR图像目标分类识别研究现状:

美国在整个SAR图像解译领域处于国际领先水平。美国从二十世纪八十年代就开始了对SAR图像解译技术的研究,并且投入数百亿美元进行SAR数据的获取以及后续处理的研究。其中最引人注目的包括ADTS(Advanced Detection Technology Sensor)、MSTAR(Moving and Stational Target Acquisition and Recognition)和SAIP(Semi-Automated IMINT Processing)等三个项目。其它一些国家,例如加拿大、德国、日本、英国、法国、意大利和印度等也都制定了有关的研究计划。在具体的SAR自动地域分类算法研究方面,马里兰大学的自动化研究中心(Centre of Automation Research)、美国空军技术学院的电子学与计算机工程系(Department of Electrical and Computer Engineering)、圣地亚(Sandia)国家实验室、林肯(Lincoln)实验室以及怀特(Wright)实验室走在最前列。例如,马里兰大学的S.Kuttikad和R.Chellappa等利用多通道全极化的SAR数据,成功地将SAR图像分割成为阴影、背景区域、树木、道路、建筑物和人造目标等类别。美国空军技术学院的Steven K.Rogers、Dennis W.Ruck、Gregory L.Tarr和Mattathew Kabrisky等九位学者和怀特实验室的Kevln J.Winy一起,利用小波和分形技术,成功地将极化ADTSSAR图像分割成为阴影、背景区域、树木和人造目标等类别。Robert等利用马尔可夫随机场的方法将SAR图像分割成为目标区域、背景区域和阴影区域。Scott Evan Decatur和Yoshihisa Hara等、Z.Belhadj等分别研究了统计分类算法和人工神经网络在SAR ATC中的应用。法国的Hans Chrstoph Quelle等提出了利用Pearson系统分布来进行自适应SAR图像分割。在极化SAR图像分类方面,目标极化分解是与散射机理密切结合的SAR图像分类的重要方向。这个方向是伴随着Huyen“雷达目标现象学”理论的建立而发展起来的,该理论充分利用散射矩阵提供的信息研究了适合所有目标的雷达目标的一般特性(包括极化特性),较好地解释了雷达目标的散射机理。1986年,Cloude提出了Pauh分解,将目标在水平垂直极化基下分解为面、二面角、450倾斜二面角和交叉极化子四种成分,在满足互易对称的条件下,Pauli分解简化为前面三种成分。第一种成分对应于球面、平面和三面体这样的结构,主要是表示单散射或奇数次散射情况;第二种成分即方位角是0o的二面角结构,主要是表示偶次散射情况;第三种成分即方位角是450的二面角,主要表示体散射机理。1990年,Krogager引入了一种旋转不变分解,将目标散射矩阵分解为球、二面体和螺旋体(不同的情况对应不同的旋转方向)。另外,1990年,Cameron提出了一种分解方法,是将散射矩阵分解为一个最大对称成分和一个最小对称成分(单站雷达目标互易情况,散射矩阵不对称时分解为一个最大对称成分和一个非对称成分)。根据最大对称成分进行变换,可以对地物进行详细分类,最后可以分解得到6种成分,三面体、二面体、窄二面体、偶极子、柱面体和1/4波振子。国内的一些单位也都在SAR图像分类和自动识别方面积极开展研究,如国防科技大学、电子科技大学、清华大学、中科院电子所等都取得了一些研究成果。但由于受传感器发展水平、数据源等各种条件的限制,我国在极化SAR分类识别方面还处于初级阶段,缺乏系统性的研究成果。

总之,目前的极化SAR图像分类方面的研究总体落后于极化SAR系统的发展,对探测到的极化散射信息的发掘程度还不够,分类正确率和精细度还不够高,取得的成果与实际需求之间还有较大距离。因此,在极化SAR图像分类方面进行更为深入的研究,很有必要。另外,近些年来,有研究者把一些新的数据处理技术引入到SAR图像处理中,这其中比较有代表性的是独立分量分析(ICA)。目前ICA主要被用来进行SAR图像的相干斑抑制和一些特征提取,将ICA用于极化SAR图像分类的研究成果还不多见,因此可以在这方面进行一些研究和探索。

五、压缩感知(CS)

压缩感知理论提出的背景:在过去的半个世纪里,奈奎斯特采样定理几乎支配着所有的信号或图像等的获取、处理、存储以及传输。它要求采样频率必须大于或等于信号带宽的两倍,才能不失真的重构原始信号。在许多实际应用中,例如高分辨率的数码装置及超带宽信号处理,高速采样产生了庞大的数据,为了降低存储,处理或传输成本,只保留其中少量的重要数据。由于采样后得到的大部分数据都被丢弃了,所以这种方式造成了采样资源的严重浪费。设想如果在采样的同时直接提取信号的少量重要信息,就可以大大降低采样频率,节约资源,提高效率而且仍能够精确重构原始信号或图像。这就是Donoho、Candes以及Tao等人提出压缩感知(Compressed Sensing、Compressive Sampling或Compressive Sensing,CS)理论的主要思想。

压缩感知理论:如果信号在某个变换域是稀疏的或可压缩的,就可以利用一个与变换基不相关的观测矩阵将变换所得的高维信号投影到一个低维空间上,根据这些少量的观测值,通过求解凸优化问题就可以实现信号的精确重构。压缩感知采集方法并不是对数据直接进行采集,而是通过一组特定波形去感知信号,即将信号投影到给定波形上面(衡量与给定波形的相关度),感知到一组压缩数据.最后利用最优化的方法实现对压缩数据解密。估计出原始信号的重要信息.压缩感知关键的问题是如何给定用来感知信号的波形才能有效地恢复出原始信号的重要信息。CS理论框架:

1)传统理论框架

编码端先对信号进行采样,再对所有采样值进行变换,并将其中重要系数的幅度和位置进行编码,最后将编码值进行存储或传输:信号的解码过程仅仅是编码的逆过程,接收的信号经解压缩、反变换后得到恢复信号。采用这种传统的编解码方法,由于信号的采样速率不得低于信号带宽的2倍,使得硬件系统面临着很大的采样速率的压力。此外在压缩编码过程中,大量变换计算得到的小系数被丢弃,造成了数据计算和内存资源的浪费。

2)压缩感知理论框图

压缩感知理论对信号的采样、压缩编码发生在同一个步骤,利用信号的稀疏性,以远低于Nyquist采样率的速率对信号进行非自适应的测量编码。测量值并非信号本身,而是从高维到低维的投影值,从数学角度看,每个测量值是传统理论下的每个样本信号的组合函数,即一个测量值已经包含了所有样本信号的少量信息。解码过程不是编码的简单逆过程,而是在盲源分离中的求逆思想下。利用信号稀疏分解中已有的重构方法在概率意义上实现信号的精确重构或者一定误差下的近似重构。解码所需测量值的数目远小于传统理论下的样本数。压缩感知的基本理论及核心问题:

1)假设有一信号f(fRN),长度为N,基向量为i(i1,2,...,N),对信号进行变换:

faii或f

i1N显然f是信号在时域的表示,是信号在域的表示。信号是否具有稀疏性或者近似稀疏性是运用压缩感知理论的关键问题,若(1)式中的只有K个是非零值(NK)者仅经排序后按指数级衰减并趋近于零,可认为信号是稀疏的。信号的可稀疏表示是压缩感知的先验条件。在已知信号是可压缩的前提下,压缩感知过程可分为两步:

a.设计一个与变换基不相关的MN(MN)维测量矩阵对信号进行观测,得到M维的测量向量。

b.由M维的测量向量重构信号。2)信号的稀疏表示

稀疏的数学定义:信号X在正交基下的变换系数向量为TX,假如对于0p2和R0,这些系数满足:

||||p(|i|p)1/pR

i

则说明系数向量在某种意义下是稀疏的.文献[1]给出另一种定义:如果变换系数iX,i的支撑域{i;i0}的势小于等于,K则可以说信号X是K项稀疏。如何找到信号最佳的稀疏域? 这是压缩感知理论应用的基础和前提,只有选择合适的基表示信号才能保证信号的稀疏度,从而保证信号的恢复精度。在研究信号的稀疏表示时,可以通过变换系数衰减速度来衡量变换基的稀疏表示能力。Candes和Tao研究表明,满足具有幂次(power-law)速度衰减的信号,可利用压缩感知理论得到恢复。

最近几年,对稀疏表示研究的另一个热点是信号在冗余字典下的稀疏分解.这是一种全新的信号表示理论:用超完备的冗余函数库取代基函数,称之为冗余字典,字典中的元素被称为原子.字典的选择应尽可能好地符合被逼近信号的结构,其构成可以没有任何限制.从从冗余字典中找到具有最佳线性组合的K项原子来表示一个信号,称作信号的稀疏逼近或高度非线性逼近。

目前信号在冗余字典下的稀疏表示的研究集中在两个方面:a.如何构造一个适合某一类信号的冗余字典;b.如何设计快速有效的稀疏分解算法.这两个问题也一直是该领域研究的热点,学者们对此已做了一些探索,其中以非相干字典为基础的一系列理论证明得到了进一步改进.西安电子科技大学的石光明教授也对稀疏表示问题进行了认真研究,并基于多组正交基级联而成的冗余字典提出一种新的稀疏分解方法。

3)信号的观测矩阵

用一个与变换矩阵不相关的MN(MN)测量矩阵对信号进行线性投影,得到线性测量值y:

yf

测量值y是一个M维向量,这样使测量对象从N维降为M维。观测过程是非自适应的即测量矩阵少的选择不依赖于信号f。测量矩阵的设计要求信号从f转换为y的过程中,所测量到的K个测量值不会破坏原始信号的信息,保证信号的精确重构。

由于信号f是是可稀疏表示的,上式可以表示为下式:

yf

其中是一个MN矩阵。上式中,方程的个数远小于未知数的个数,方程无确定解,无法重构信号。但是,由于信号是K稀疏,若上式中的满足有限等距性质(Restricted Isometry Property,简称RIP),即对于任意K稀疏信号f和常数k(0,1),矩阵满足:

||f||221k1k2||f||2 则K个系数能够从M个测量值准确重构。RIP性质的等价条件是测量矩阵和稀疏基不相关。目前,用于压缩感知的测量矩阵主要有以下几种:高斯随机矩阵,二值随机矩阵(伯努力矩阵),傅立叶随机矩阵,哈达玛矩阵,一致球矩阵等。

信号的重构算法:

当矩阵满足RIP准则时。压缩感知理论能够通过对上式的逆问题先求解稀疏系数Tx,然后将稀疏度为K的信号x从M维的测量投影值y中正确地恢

l复出来。解码的最直接方法是通过0范数下求解的最优化问题:

||||minl0s.ty

从而得到稀疏系数的估计。由于上式的求解是个NP—HARD问题。而该最优化问题与信号的稀疏分解十分类似,所以有学者从信号稀疏分解的相关理论中寻找更有效的求解途径。l1最小范数下在一定条件下和l0最小范数具有等价性,可得到相同的解。那么上式转化为l1最小范数下的最优化问题:

||||minl1s.ty

l1最小范数下最优化问题又称为基追踪(BP),其常用实现算法有:内点法和梯度投影法。内点法速度慢,但得到的结果十分准确:而梯度投影法速度快,但没有内点法得到的结果准确。二维图像的重构中,为充分利用图像的梯度结构。可修正为整体部分(Total Variation,TV)最小化法。由于l1最小范数下的算法速度慢,新的快速贪婪法被逐渐采用,如匹配追踪法(MP)和正交匹配追踪法(OMP)。此外,有效的算法还有迭代阈值法以及各种改进算法。压缩感知亟待解决的问题: 1)基础理论层面

a.基于非正交稀疏字典的压缩感知信号重建理论。在等距约束性准则驱动的可压缩信号压缩感知定理中,关于稀疏字典Ψ和测量矩阵Φ仅要求两者乘积Θ = Φ Ψ 满足RIP。但是,测量矩阵设计部分关于压缩测量个数M 的界定还额外附加了假设条件,即稀疏字典Ψ 是正交基。当测量矩阵Φ依然通过三种方式生成,但是稀疏字典Ψ不再正交时,Θ = Φ Ψ 是否满足RIP?压缩测量个数M 的下限是否不变?由于过完备的稀疏字典才能保证表示系数具有足够的稀疏性或衰减性,进而能够在减少压缩测量的同时保证压缩感知的重建精度,所以需要设计鲁棒的测量矩阵Φ 使之与过完备稀疏字典依然满足RIP,同时需要重新估计压缩测量个数M 的下限,这时所需的压缩测量定会减少。

b.自然图像的自适应压缩感知信号重建理论。虽然基于线性投影的压缩感知理论能够直接应用于自然图像这样的复杂高维信号,但是由于没有考虑到自然图像的固有特性,诸如结构多成分性、高阶统计性等,对于自然图像压缩采样本身没有特殊的指导作用。事实上,相对于一维离散信号,自然图像的复杂性和高维性使之需要自适应的压缩采样和重建算法。

例如,基于图像多成分性的特点能够提高重建图像的峰值信噪比和视觉效果。注意到,压缩感知理论的大部分文献中,测量矩阵Φ 都是线性的且设计好的,不需根据观测信号自适应地变化。对于自然图像,假如能够实现非线性自适应的压缩测量,压缩感知的压缩性能势必会获得大幅度的提高。目前,自然图像的自适应压缩感知信号重建理论基本空白。这项工作对压缩感知的理论推广和实际应用都具有重要意义。

c.p-范数优化问题

压缩感知理论在图像压缩编码等方面也应该有很广泛的前景,但由于信号的恢复方法是建立在1-范数意义下,数据之间还有很大的冗余性没有去除,相比传统的小波变换编码,压缩感知理论应用于图像压缩的效果还不理想。p-范数的优化是提高基于压缩感知理论的压缩算法效果的必经之路.P范数的优化方法是—个公开问题(open problem),对它的研究将推动压缩感知理论在压缩方面的应用,具有很深远的意义.1-范数意义下的优化问题是一个凸函数优化问题,目前已有一些成熟的算法,但p-范数的优化是一个非凸函数的优化问题,其中有很多数学问题有待解决.有关P范数非凸函数优化问题,也有一些学者开展研究。如Rick Chartrand用典型的合成数据做了一些实验,表明在一定的稀疏误差范围内,可以得到最小值。变换基空间内的系数严格的等距条件(restricted isometry)。由于有了严格的约束,完全适合于大多数实际的信号。

d.含噪信号的恢复算法 在实际工程应用中,待处理信号一般都不同程度地受到各种噪声的污染。含噪信号不是严格的稀疏信号,但是仍属于可压缩信号。现有的压缩感知理论中恢复信号的最基本依据是信号在某个变换空间的分解系数是稀疏的,而噪声的存在则破坏了信号在空间中的稀疏性.在使用优化方法恢复信号时,如果对含噪信号采用单一的稀疏性约束原则,则无法有效恢复原始稀疏信号。这时,压缩感知理论仍然可以采用其它有效的恢复信号的方法,主要的不同之处在于恢复过程所使用的优化目标函数的形式不同,参数的设置不同。不同的优化目标函数使得信号的恢复效果也不尽相同。

2)实现方法层面

a.基于学习的自然图像过完备字典设计。目前,基于构造方法的自然图像过完备字典设计具有很好的理论支撑,正则化几何方法、几何多尺度分析、基于信息论的“有效编码假设”为其奠定了坚实广阔的理论基础。但是,从国际上关于过完备字典设计的整体情况看,基于学习的自然图像过完备字典设计的工作非常少,主要在于:设计难度大、性能要求高,同时缺乏严格的理论支撑。这项工作对于稀疏字典和压缩感知都将是重要的理论完善。

b.硬件易实现的确定性测量矩阵设计。在等距约束性准则驱动的可压缩信号压缩感知定理3、4 中,要求稀疏字典Ψ和测量矩阵Φ的乘积Θ = Φ Ψ 满足RIP。其中,稀疏字典Ψ可以是正交的也可以是非正交的,测量矩阵Φ 可以是随机的也可以是确定的。但是,面向应用且硬件易实现的测量矩阵应该具有以下基本特点:满足等距约束性、压缩测量个数少、采样计算成本低、存储矩阵的空间小、以及测量矩阵最好是确定性的。设计出硬件容易实现的测量矩阵和快速稳定的重建算法是将压缩感知理论推向实用的关键。

c.噪声情形大尺度问题的快速鲁棒重建算法设计。快速稳定的信号重建算法是将压缩感知理论推向实用的关键技术之一,特别适用于纠错编码、核磁共振成像、NMR波谱研究等大尺度问题。通常,基于最小化松弛算法的计算复杂度相对较高。因而,在最小化驱动的压缩感知理论完善工作的基础上,希望能够基于稀疏性自适应的贪婪迭代和基于多层超先验建模的非凸迭代思想设计适于噪声情形大尺度问题的快速鲁棒重建算法。压缩感知的应用

使用一定数量的非相关测量值能够高效率地采集可压缩信号的信息,这种特性决定了压缩感知应用的广泛性。例如低成本数码相机和音频采集设备;节电型音频和图像采集设备;天文观测;网络传输;军事地图;雷达信号处理等等。以下归纳了压缩感知几个方面的应用:

1)数据压缩

在某些情况下,稀疏基在编码中是未知的或在数据压缩中是不能实际实现的。由于测量矩阵西是不需要根据缈的结构来设计的,随机测量矩阵可认为是一个通用的编码方案,而哕只有在解码或重建信号的时候需要用到。这种通用用性在多信号装置(如传感器网络)的分布式编码特别有用。

(2)信道编码

压缩感知的稀疏性、随机性和凸优化性,可以应用于设计快速纠错码以防止错误传输。

(3)逆问题

在其他情况下,获取信号的唯一方法是运用特定模式的测量系统。然而,假定信号存在稀疏变换基,并与测量矩阵不相关,则能够有效的感知的信号。这样的应用在文献[2]中的MR血管造影术有提到,记录了傅立叶变换子集,所得到的期望的图像信号在时域和小波域都是稀疏的。

(4)数据获取

在某些重要的情况下,完全采集模拟信号的N个离散时间样本是困难的,而且也难以对其进行压缩。而运用压缩感知,可以设计物理采样装置,直接记录模拟信号离散、低码率、不相关的测量值,有效地进行数据获取。基于RIP理论,目前已研制出了一些设备,有莱斯大学研制的单像素相机和A/I转换器,麻省理工学院研制的编码孔径相机,耶鲁大学研制的超谱成像仪,麻省理工学院研制的MRI RF脉冲设备,伊利诺伊州立大学研制的DNA微阵列传感器。总结:

压缩感知理论的研究已经有了一些成果,但是仍然存在大量的阅题需要研究.概括为以下几个方面:

1)对于稳定的重构算法是否存在一个最优的确定性的观测矩阵; 2)如何构造稳定的、计算复杂度较低的、对观测次数限制较少的重构算法来精确地恢复可压缩信号;

3)如何找到一种有效且快速的稀疏分解算法是冗余字典下的压缩感知理论的难点所在;

4)如何设计有效的软硬件来应用压缩感知理论解决大量的实际问题,这方面的研究还远远不够;

5)对于p_范数优化问题的求解研究还远远不够;

6)含噪信号或采样过程中引入噪声时的信号重构问题也是难点所在,研究结果尚不理想.此外,压缩感知理论与信号处理其它领域的融合也远不够,如信号检测、特征提取等。cs理论与机器学习等领域的内在联系方面的研究工作已经开始。

压缩感知理论是新诞生的,虽然还有许多问题待研究,但它是对传统信号处理的一个极好的补充和完善,是一种具有强大生命力的理论,其研究成果可能对 信号处理等领域产生重大影响。

六、多目标优化方法

无论是在自然学科领域还是在社会学科领域,以最小的成本获取最大的效益,始终是人类追求的目标。最小化成本的同时最大化效益,将一对矛盾的两个方面同时考虑,构成了一个典型的多目标优化问题。工程实践中的方案设计,社会发展与国民经济中的规划与决策,大都可以视为多目标优化问题。采用多目标优化方法,可以对这些问题中相互冲突的目标进行很好的权衡,给出满意的优化结果,从而提高人类改造自然、改造社会的能力。为此,研究多目标优化方法,并将其应用于工程实践,是十分必要的。

传统的多目标优化方法往往采用权值将多目标问题转化为单目标优化问题,然后采用单目标优化方法求解其最优值。由于不符合多目标优化问题本身的特点,传统方法在求解多目标优化问题时表现的相当脆弱。法国经济学家V.Pareto(1848~1923)在经济学领域最早提出了Pareto解集的概念。Pareto解集的概念十分符合多目标优化问题本身的特点,在多目标优化方法研究中具有里程碑的意义。近些年来发展起来的多目标优化方法,绝大部分都是基于Pareto概念的多目标演化算法。例如,多目标遗传算法(Multiple Objective Genetic Algorithm,MOGA),非劣分层遗传算法(Non.dominated Sorting Genetic Algorithm,NSGA),小组决胜遗传算法(Niched Pareto Genetic Algorithm,NPGA),多目标粒子群优化算法(Multiple Objective Particle Swarm Optimization,MOPSO)等。性能优越的多目标优化方法,应该能够得到比较理想的非劣解集,具体包括以下几个方面获得的非劣解集与真实非劣解集的距离应尽可能的小;获得的非劣解集应该均匀分布;获得的非劣解集应有较好的扩展性,即非劣解集的端点应尽量接近单目标极值。

目前多目标优化方法的研究主要集中在以下几个方面:

1)高效多目标优化方法的研究

为了得到性能优越的多目标优化方法,一些学者提出了新的思路。例如,2003年Li等人等人提出了PPGA(Predator-Prey Genetic Algorithm)算法。该算法采用基于超立方体的方法,模拟自然界食肉动物与食草动物间的关系进行演化计算。该方法的显著特点是可以动态的改变种群结构,同时对个体的评价规则可以不止一个(每个捕食者代表的规则可以不同),而小生境则通过超立方体网格自动实现。不过,寻求高效多目标优化方法的研究还是更多地集中于对已有算法的改进方面。例如,在原有非劣分层遗传算法(NSGA)的基础上,Pratab A.Deb K等人发展了NSGA-II算法。

2)交互式多目标优化方法的研究

多目标优化问题的优化结果为一非劣解集。要得到众多的非劣解不可避免的需要较大的计算开支。在交互式多目标优化方法中,决策人不断的根据优化结果提炼偏好信息,然后在偏好信息的指导下进行优化。交互式多目标优化方法只搜索决策人关心的区域,因而不仅容易得到决策人满意的优化结果,而且计算开支比较小。决策人的偏好一般用目标期望值,优先次序、效用函数、模糊逻辑等方式表示,但是在实际中要用明确的公式表达决策人的偏好是一件很困难的事情。目前,常用的交互式多目标优化方法有:逐步进行法(STEM)、多目标问题的序贯解法(SEMOP)、Geoffrion法、代理价值权衡法(SWT)等。

3)多目标优化方法收敛性的研究。

目前,多目标优化算法缺乏收敛理论。Rudolph于1998年对两目标组成的简单多目标优化问题的演化算法的收敛性行为进行了分析,以集合间的距离定义解

第二篇:西电生产实习报告(定稿)

生产实习实验报告

2013年10月28日—11月1日,我在西安电子科技大学通信与信息工程专业国家级实验教学中心内进行了生产实习,内容为“TD-SCDMA”技术学习。实习期间,我通过软件仿真和实际动手操作设备,了解了最新的3G移动通信的设备及其数据配置。

这次实习“TD-SCDMA”包括以下内容:学习TD-SCDMA发展概述;学习TD-SCDMA关键技术;熟知实际设备:基站(基带部分、射频部分、智能天线)、RNC、CN;学习TD-SCDMA接口协议和信令呼叫流程;学习ZXTR RNC系统结构;学习ZXTR B328 R04系统结构;学习OMC仿真软件操作指导;数据配制:公共资源配置、物理设备配置、ATM通信端口配置、局向配置、无线参数相关配置。

TD-SCDMA是英文Time Division-Synchronous Code Division Multiple Access(时分同步码分多址)的简称,TD-SCDMA作为中国提出的第三代移动通信标准(简称3G),自1998年正式向ITU(国际电联)提交以来,已经历十多年的时间,完成了标准的专家组评估、ITU认可并发布、与3GPP(第三代伙伴项目)体系的融合、新技术特性的引入等一系列的国际标准化工作,从而使TD-SCDMA标准成为第一个由中国提出的,以我国知识产权为主的、被国际上广泛接受和认可的无线通信国际标准。这是我国电信史上重要的里程碑。(注:3G共有4个国际标准,另外3个是美国主导的CDMA2000、WiMAX和欧洲主导的WCDMA,相对于另两个主要3G标准(CDMA2000)或(WCDMA)它的起步较晚。)

TD-SCDMA技术特点:

1.TD-SCDMA空中接口采用了四种多址技术:FDMA、TDMA、CDMA、SDMA。

2.TD-SCDMA是TDD工作模式,上下行链路使用同一频率,上下行数据的传输由控制上下行的发送时间决定,发送时段内不接收,接收时段内不发送,而且可以灵活控制和改变发送和接收的时段长短比例。

3.TD-SCDMA系统采用1.28Mb/s的码片速率,只需占用单一的1.6MHz频带宽度,就可传送2Mb/s的数据业务。

4.采用智能天线,可有效提高天线增益,大致定位用户的方位和距离。

5.采用智能天线和上行同步技术,只有来自主瓣方向和较大副瓣方向的多径干扰才会影响有用信号,极大地降低了多址干扰,有效提高了系统容量,从而提高了频谱利用率。

6.采用接力切换,接力切换可提高切换成功率,减少切换时对邻近基站信道资源的占用时间。

在实习期间,我弄清了以下TD-SCDMA系统的重要概念:

1、TD的多址方式;

四种多址技术:FDMA、TDMA、CDMA、SDMA。

2、TD的物理层结构;

TD-SCDMA系统的物理信道采用4层结构:系统帧号、无线帧、子帧、时隙/码。系

统使用时隙和扩频码来在时域和码域上区分不同的用户信号。

3、TD的时隙结构,并进行了说明;

3GPP定义的一个TDMA帧长度为10ms。一个10ms的帧分成两个结构完全相同的子帧,每个子帧的时长为5ms。这是考虑到了智能天线技术的运用,智能天线每隔5ms进行一次波束的赋形。子帧分成7个常规时隙(TS0 ~ TS6),每个时隙长度为864chips,占675us)。每帧有两个上/下行转换点,TS0为下行时隙TS1为上行时隙,三个特殊时隙GP, DwPTS, UpPTS 其余时隙可根据根据用户需要进行灵活UL/DL配置。DwPTS(下行导频时隙),GP(保护间隔),UpPTS(上行导频时隙),子帧总长度为6400chips,占5ms,得到码片速率为1.28Mcps。TS0用作下行时隙来发送系统广播信息,广播信道PCCPCH占用该时隙进行发射。TS1总是固定地用作上行时隙。其它的常规时隙可以根据需要灵活地配置成上行或下行以实现不对称业务的传输,上下行的转换由一个转换点(Switch Point)分开。每个5ms的子帧有两个转换点(DL到UL和UL到DL),第一个转换点固定在TS0结束处,而第二个转换点则取决于小区上下行时隙的配置。

4、TD的几种信道模式;

1、逻辑信道:直接承载用户业务;根据承载的是控制平面业务还是用户平面业务分为两大类,即控制信道和业务信道。

2、传输信道:无线接口层2和物理层的接口,是物理层对MAC层提供的服务;根据传输的是针对一个用户的专用信息还是针对所有用户的公共信息分为专用信道和公共信道两大类。

3、物理信道:各种信息在无线接口传输时的最终体现形式,每一种使用特定的载波频率、码(扩频码和扰码)以及载波相对相位都可以理解为一类特定的信道。

5、TD-SCDMA数据简要发送过程;

6、UTRAN体系结构;

UTRAN包括一系列无线网络子系统通过Iu接口连到核心网,一个RNS 由一个RNC和一个或多个Node B 组成,Node B可支持FDD与/或TDD。RNC与RNC之间通过Iur(逻辑接口,可通过任意传输网络来连接)连接,RNC与Node B通过lub连接。

7、TD中常用的四种基本码及码组对应关系;

(1)下行同步码SYNC_DL(2)上行同步码SYNC_UL(3)基本Midamble码,共128个(4)小区扰码(Scrambling Code),共128个 ;

TD-SCDMA系统中,有32个SYNC_DL码,256个SYNC_UL码,128个Midamble

码和128个扰码,所有这些码被分成32个码组,每个码组包含1个SYNC_DL码,8个SYNC_UL码,4个Midamble码和4个扰码。

8、小区搜索,上行同步,随机接入的基本过程;

小区搜素基本过程:在初始小区搜中,UE搜素到一个小区,建立DwPTS同步,获得扰码和基本midamble码,控制复帧同步,然后读取BCH消息。初始小区搜素利用DwPTS和BCH进行。

上行同步基本过程:初始同步:

1、UE选择SYNC_UL并发起同步请求,2、NodeB检测SYNC_UL发送定时调整与功率调整指示。同步保持:

1、UE发送DCH;

2、NodeB检测SYNC_UL,并发送定时调整与功率调整指示;

3、UE根据SS指令调整发射时间;

4、NodeB发送DCH,含SS指令;

5、UE发送DCH

随机接入基本过程:随机接入准备,随机接入过程,随机接入冲突处理。

1、UE:开环功率控制和开环同步控制,发射UpPTS,等待BTS回答;

2、BTS:控制UE的发射功率和时延,获得UE接入要求;

3、系统:鉴权和分配码道。

9、BBU+RRU的优势;

BBU(Building Base band Unite室内基带处理单元)和RRU(Remote Radio Unit射频拉远单元)之间传输的是基带数据,将基带拉远。中频和射频功放部分都放在室外RRU 部分处理。BBU 和RRU 通过光纤传输(1.25G bit/s光纤承载24A&C数据),工程施工大大简化了。摆脱配套设施限制,建网快速灵活,降低建网和运维费用

10、RNC数据配置过程。

创建子网,创建RNC管理网元,创建RNC全局资源,创建机架,配置各单板IP地址(ROMB,GIPI,APBE),统一分配IPUDP IP地址,ATM通信端口配置,IUCS_AAL2路径组配置,创建IU-CS局向创建IU-PS局向,静态路由配置(全局资源->高级属性),快速创建IUB局向,创建服务小区,配置内容,创建NODEB管理网元,创建模块,配置机架、机框、单板,配置ATM传输模块—承载链路,配置ATM传输模块—传输链路,配置无线模块—物理站点,配置无线模块—扇区,配置无线模块—服务小区整表同步与增量同步,态数据配置。

实习心得

在实习期间通过理论联系实际,不断的学习和总结经验,巩固了所学的知识,提高了处理实际问题的能力,为毕业设计的顺利进行总结了经验。

实习中的感悟

首先、毕业实习的顺利进行得益于扎实的专业知识。用人单位在招聘员工的第一要看的就是你的专业技能是否过硬。我们一同过去的几位应聘者中有来自不同学校的同学,有一部分同学就是因为在专业知识的掌握上比别人逊色一点而落选。因为对于用人单位来说如果一个人有过硬的专业知识,他在这个特定的岗位上就会很快的得心应手,从而减少了用人单位

要花很大的力气来培训一个员工。第二、在工作中要有良好的学习能力,要有一套学习知识的系统,遇到问题自己能通过相关途径自行解决能力。因为在工作中遇到问题各种各样,并不是每一种情况都能把握。在这个时候要想把工作做好一定要有良好的学习能力,通过不断的学习从而掌握相应技术,来解决工来中遇到的每一个问题。这样的学习能力,一方面来自向师傅们的学习,向工作经验丰富的人学习。另一方面就是自学的能力,在没有另人帮助的情况下自己也能通过努力,寻找相关途径来解决问题,(举例说明)第三、良好的人际关系是我们顺利工作的保障。

在工作之中不只是同技术、同设备打交道,更重要的是同人的交往。所以一定要掌握好同事之间的交往原则和社交礼仪。这也是我们平时要注意的。和谐的人际关系,能为顺利工作创造了良好的人际氛围。另外在工作之中自己也有很多不足的地方。例如:缺乏实践经验,缺乏对相关技能知识的标准掌握等。所在我常提醒自己一定不要怕苦怕累,在掌握扎实的理论知识的同时加强实践,做到理论联系实际。另一方面要不断的加强学习,学习新知识、新技术更好的为人民服务。

通过这次毕业实习,把自己在学校学习的到理论知识运用到社会的实践中去。一方面巩固所学知识,提高处理实际问题的能力。另一方面为顺利进行毕业设计做好准备,并为自己能顺利与社会接轨做好准备。毕业实习是我们从学校走向社会的一个过渡,它为我们顺利的走出校园,走向社会为国家、为人民更好服务做好了准备。经过过去一个月的实践和实习,我对未来充满了美好的憧憬,在未来的日子,我将努力继续学习,不断提升理论素养;努力实践,自觉进行角色转化;提高工作积极性和主动性

一个星期的实习期很快过去了,是开端也是结束。展现在自己面前的是一片任自己驰骋的沃土,也分明感受到了沉甸甸的责任。在今后的工作和生活中,我将继续学习,深入实践,不断提升自我,努力创造业绩,继续为社会创造更多的价值。

最后感谢西安电子科技大学领导以及樊凯教授对我实习的支持和帮助,我会继续努力的。

第三篇:西电 公关礼仪

公关礼仪

中国乃礼仪之邦。古人曰:“不学礼,无以立”。古代有“五礼”之说,祭祀之事为吉礼,冠婚之事为嘉礼,宾客之事为宾礼,军旅之事为军礼,丧葬之事为凶礼。礼仪,是中华传统美德宝库中的一颗璀璨明珠,是中国古代文化的精髓。

所谓礼仪是指在人际交往、社会交往和国际交往中,用于表示尊重、亲善和友好的行为规范和惯用形式。具体来说,首先,礼仪是一种道德行为规范,是对人的行为进行约束的条条框框。其次,礼仪的直接目的是表示对他人的尊重。尊重是礼仪的本质。礼仪的根本目的是为了维护社会正常的生活秩序。

作为新时代的大学生,较之中学生、小学生的差别也应并非仅仅体现在年龄、学问上,而更多的应该体现在个人修养、文明礼貌等方面。但当前国内很多高校大学生的礼仪修养现状却令人堪忧:衣冠不整、迟到早退、随地吐痰、乱扔杂物、张口骂人等不文明现象随处可见;在食堂打饭不排队,在宿舍大声说话、听音乐、玩游戏影响他人休息等情况比比皆是。更令人担忧的是,不少大学生对上述不文明行为非但没有正确的认识,还将其标榜为“有个性”、“张扬自我”的表现,对于不文明行为不以为耻、反以为荣,体现了在价值观方面的扭曲。

作为大学生我们应学会克服这些不文明的行为做一个讲礼仪的人。从《公关礼仪》这门课我学到了不少知识和常识,像介绍礼仪、电话礼仪、握手礼仪、以及面试礼仪等。如电话礼仪,电话被现代人公认为便利的通讯工具,在日常工作中,使用电话的语言很关键,它直接影响着一个公司的声誉;在日常生活中,人们通过电话也能粗略判断对方的人品、性格。因而,掌握正确的、礼貌待人的打电话方法是非常必要的。如面试礼仪,面试礼仪是指用人单位通过衣着、装扮、语言、手势、表情、笑容等方面来考察应聘者的综合素质、胜任所报职位的工作能力。面试是用人单位对应聘者进行选拔而采取的诸多方式中的一种,也是应聘者取得求职成功的关键一步。在整个应聘过程中,面试是最具有决定性的一环。面试是求职者展示自身素质、能力、品质的最好时机,面试发挥出色,可弥补其它方面所带来的缺陷。因此,求职前要很好地掌握面试的技巧与相关的礼仪知识。礼仪本身是一种既具有内在道德要求,又具有外在表现形式的行为规范。谦恭的态度、文明礼貌的语言、优雅得体的举止等方面表现出来的,是人的内在文化修养、道德品质、精神气质和思想境界等。没有内在的修养,外在的形式就失去了根基。无论在任何方面,做一个讲究礼仪的大学生是很有必要的。而公关礼仪就是把组织形象和个人形象有机地结合起来,个人形象是组织形象的基础,通过塑造完美的个人形象来塑造组织形象。

在当前的形势下,礼仪已不是个别行业、个别社会层次的需求,而是全民所需。

礼仪,作为在人类历史发展中逐渐形成并积淀下来的一种文化,始终以某种精神的约束力支配着每个人的行为,是适应时代发展、促进个人进步和成功的重要途径。礼仪的主要功能,从个人的角度来看,一是有助于提高人们的自身修养;在人际交往中,礼仪不仅可以有效地展现一个人的教养、风度和魅力,还体现出一个人对社会的认知水准、个人学识、修养和价值。二是有助于美化自身、美化生活;有助于促进人们的社会交往,改善人们的人际关系,礼仪是人立身处世的根本、人际关系的润滑剂、是现代竞争的附加值。;还有助于净化社会风气。礼仪,对于各级行政机关来说,是纠正不良风气,端正文明行政的有效手段;对企业来说,是企业形象的重要组成部分,是企业文化的重要内涵,也是提高企业员工办文办事、工作效率的重要环节,更是实现企业认证和国际接轨的重要途径。

总之,公关礼仪是一门学问,我们应该重视它,了解它,并在以后的日子里很好地运用它,以一种新的方式生活,让生活更美好。

第四篇:西电读书调查报告

缤纷世界,书籍是人类永远的最终伴侣,大学生涯中也不例外。除了丰富多彩的其他生活,课外阅读也在大学生的校园生活中占一席之地,对其道德情操、人格品质、精神境界的形成与提高有着潜移默化的影响。为进一步明确书籍在我校大学生课余生活中的切实影响与大学生目前阅读存在的问题,我们在选修课上针对大学生课外阅读状况对学生经行了一次调查。

一.调查目的:课外阅读在现在的大学生生活中占有多少的时间,我们不得而知?丰富的课外知识是综合能力的基础,读书能够使人进步,尤其是对于当代大学生来说,大学阶段是读书观形成并逐步稳定的关键时期。为了了解目前大学生的读书现状及其存在的问题,唤起大学生的读书意识,并且为了让大家明白读书的重要性,因此我们特进行此次调查。

二.调查时间:2012年5月3号

三.调查对象:西安电子科技大学应用文写作课星期二组全体学生

四.调查方式:此次报告主要采用问卷调查的方法,于2010年11月在青岛科技大学外国语学院07级英语1-5班累计发放问卷120份,回收问卷116份,有效问卷100份。根据实际情况,条件有限只能粗略的进行一下调查,但是通过调查也能够较真实客观地反映目前我校大学生的阅读状况。

五.调查组织:应用文写作课指导老师

六.数据结果及分析:

(1)读书内容及选择方向:在多项选择关于读书内容的调查中,我们可以看到,文学类,历史文学类和专业相关的书籍是同学选择的主要方面,分别占总人数的74.5%,68.6%和64.7%。此外,喜欢娱乐类,科普类以及其他书籍的同学也不在少数。在调查到目前最需要补充阅读哪些书籍时,82.4%的同学选择了实用类的书籍,66.7%的同学选择了与自己专业相关的书籍,而选择文经济管理法律,军事书籍,流行小说的人数相对较少。

(2)读书目的与选择原因:选择因兴趣而读书的学生有95.1%名居首位,而因扩展知识面的也有81.3%,因学习,和作业论文需要读书的同学占61.7%,以上的人认为读书对个人成长有很大影响。命运也是和读书多少,知识面密切相关的;当然也有部分同学表示自己根本就是为了消遣和消磨时光。他们认为读书对个人的影响不大,认为个人努力和机遇是非常重要的。

(3)获得书籍途径及阅读习惯

在书籍的获得途径方面,61.7%的同学选择在图书馆阅览,50.9%的同学青睐网上在线或下载,13.7%的同学选择在书店购买,也有8.8%的同学找亲戚朋友借阅。图书获取途径的方便让同学有了更大的阅读资源,但很遗憾的是在阅读方式方面,很多同学游览和泛读,很少部分的同学会边看边做笔记或者读完后与他人交流。阅读环境及周围人的读书习惯调查中,有73.5%的同学表示身边经常读书的同学很少。

(4)很少阅读的愿因

在调查中大多数学生认为自己的读书量太少,在分析影响自己阅读的原因调查选项中,选择学习压力太大没有时间的占到51%,另有53%的学生表示自己,对课外阅读没有兴趣,就本校学生生活环境而言,15.7%以上的学生认为,目前学校图书馆书籍太少难以找到自己感兴趣的书,另外还有部分购买书籍成本太高等其他原因,但人数相对较少。

(5)教师课堂推荐书籍的选择性

在调查到是否会选择教师课堂推荐的书籍读物时,56.9%的同学表示自己会根据自己的实际情况选择性的阅读,30.4%的同学则根本不会去阅读老师推荐的书籍,只有大约27%的同学会选择认真阅读。

八.调查结论:

结论一:功利,娱乐和多元化的阅读面

当代大学生对读书吃越来越功利的态度。读书阅读,尤其是对经典名著的阅读越来越不受大家欢迎,很多同学将考试等同于看书,没有明白读书的真正意义,不能够正确对待书籍阅读,阅读书籍的数量和种类偏少,非学术类阅读占的比例升高;相比之下学术类阅读显得单薄,专业期刊与外文文献阅读更是稀少。读书的人数不少,但是真正能够读出深度、读出思想的却并不多。很多同学知道自己应该补充的是专业类,以及一些扩展知识面的书籍,但往往在实际选择时,却更青睐于娱乐性和网络快餐小说。

结论二:盲目,和低效率的阅读习惯

在阅读方式上,几乎所有的同学都选择了泛读游览的方式,但很

显然,这样的阅读方式并不能够有效的更新知识结构扩充自己的知识面,很多同学只追求了阅读速度,忽视了高效,没有仔细体味、领悟作者的思想内涵。此外,令人难过的是,大多数同学对老师在课堂上推荐的书籍并不在意,只是随意游览或者根本不去碰,这样的做法无疑对自己是没有一点好处的。

结论三:图书馆阅读仍占主流,网络异军突起

大多数同学青睐在图书管理进行阅读,此外同学们彼此交流思想,也为新思想、新意识的形成提供一个很好的平台。这也意味着更有效提高学校图书馆的利用率。此外,网络在大学生的生活中也占了很重要的位置,如网上购书、网上阅读、在线交流等,但我们在运用网络新手段时要学会辨别真伪、优劣,抵制不良阅读倾向。

结论四:读书氛围不够浓厚,不读书借口很多

通过第七题和第九题的调查,我们可以发现,目前很多同学依然无法正确认识读书的重要性,端正读书态度。学习忙,考试压力大是事实,但绝不是不阅读的理由。学生要学会培养自己的读书习惯,而不能只是停留在但凭个人的兴趣决定是否阅读,想要以后在社会上有所发展就必须学习好各门学科,避免知识过于单一和贫乏,要使自己全面发展,成为一个社会上需求的具有综合能力的人才。此外,据调查有近15%的学生认为图书馆的书籍不能满足需求 客观上还存在着提携实质性的问题。但我们相信学校领导会致力于学校自身的发展建设,为我们的学生提供一个更为优越的阅读环境。

读书破万卷,下笔如有神”,“读万卷书,行万里路”,大学四年里我们一定要好好把握,多读一些对自己有益的书,“不积小流无以成江海,不积跬步无以致千里”,日积月累,我们一定会在不知不觉

中提高自己。好读书,会读书,读好书,与书为伴,在人生最美好的日子里不断充实自己,提高自己,为实现自己的人生理想而努力。

第五篇:西电空调申请表

西安电子科技大学学生宿舍空调安装申请表

编号:

学 院 空调品牌 楼栋宿舍号

规 定 和 要 求

班 级 空调功率 宿舍人数

□1.2P □1.5P

空调租期 空调台数

宿舍长/联系方式

本宿舍全体成员郑重承诺:

1、宿舍全体成员已阅知并愿意严格遵守《西安电子科技大学学生宿舍空调设备使用和管理办法(试行)》等学校的相关规定和要求,服从学校管理。

2、本宿舍全体成员已就空调安装使用产生费用分摊、安装位置、使用时间等事项达成一致意见,保证不会因使用空调引发宿舍成员矛盾。

3、规范使用空调设备,因操作不当或违规使用造成的人身伤害和财产损失,由违规操作者承担一切责任。

4、合理使用空调,保证安全用电、节约用电。

5、严格遵守学校作息制度和学习纪律,不在正课时间无故滞留宿舍。

6、宿舍成员签名全部为本人签名,没有代签行为。

宿舍成员签名:

年 月 日

学 院 意 见

(应写明是否同意安装)

学院(盖章):

年 月 日

学工处(盖章):

年 月 日

后勤处(盖章):

年 月 日 学 工处 意 见 后勤处 备案

注:此表一式四份,后勤处、学工处、空调租赁服务商及本宿舍各保留一份。

下载西电学术之秋报告2012word格式文档
下载西电学术之秋报告2012.doc
将本文档下载到自己电脑,方便修改和收藏,请勿使用迅雷等下载。
点此处下载文档

文档为doc格式


声明:本文内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:645879355@qq.com 进行举报,并提供相关证据,工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。

相关范文推荐

    西电毕业论文格式

    一. 毕业设计(论文)的总体要求: 撰写论文应简明扼要,一般不少于15000字(外语专业可适当减少,但不得少于10000单词,且须全部用外语书写)。 二. 毕业设计(论文)的编写格式: 每一章、节的......

    中国梦、西电梦

    如何实现中国梦、西电梦 首先,什么是中国梦呢?2012年11月29日,中共中央总书记习近平带领新一届中央领导集体参观中国国家博物馆“复兴之路”展览时,将“中国梦”定义为:实现中华......

    西电个人陈述

    尊敬的招生办领导、老师们: 您们好! 我叫XXX,是XX省XX市泰XX学高三理科/文科班的一名男/女生,今年XX岁。今天我怀着对贵校的敬仰与无比向往,真诚而且郑重的递呈这份自主招生的申......

    西电专业教育五篇范文

    西电网络教育学院 专业教育大作业一、(100分/题)要求通过查阅本专业基本情况的文献或期刊,写一篇对于本专业整体环境和发展认识的小论文,字数3000字左右。具体内容包括:1、 说明......

    西电生活小提示

    西电生活小提示一、一卡通丢失怎么办?1、挂失。(卡号:卡片右下角的号码)步骤:(1)记住卡号的可在圈存机自助服务栏下一卡通挂失项下输入卡号及密码(初始密码为000000,尽量不要修改密码......

    西电微机原理课程设计报告(11级)

    基于8088的微机最小系统设计与应用 一、引言—微机发展概述 1.微型计算机的发展历史 第一台微型计算机—— 1974年,罗伯茨用8080微处理器装配了一种专供业余爱好者试验用的计......

    西电通院专业教育大作业

    《专业教育》 (第三学期) 课程大作业 专业:通信工程 班级: 学号: 姓名: 通信工程专业教育 1 通信工程专业培养目标及发展 通信工程专业培养学生掌握通信工程类专业坚实的基础......

    西电天线CAD大作业

    天线CAD大作业 姓名: 班级: 学号: 微带天线 一 设计基本要求 工作频带1.1-1.2GHz,带内增益≥4.0dBi,VSWR≤2:1。微波基板介电常数为6.0,厚度H≤5mm,线极化。总结设计思路和过程,给......