遥感毕业设计论文遥感融合技术.docx
- 文档编号:15610314
- 上传时间:2023-07-06
- 格式:DOCX
- 页数:29
- 大小:461.59KB
遥感毕业设计论文遥感融合技术.docx
《遥感毕业设计论文遥感融合技术.docx》由会员分享,可在线阅读,更多相关《遥感毕业设计论文遥感融合技术.docx(29页珍藏版)》请在冰点文库上搜索。
遥感毕业设计论文遥感融合技术
摘要
遥感图像融合是遥感领域中的关键技术之一。
随着遥感的快速发展,尤其是传感器技术的发展,信息融合在遥感中发挥着越来越重要的作用。
本文首先对遥感技术与遥感信息融合进行简要概述,接着从技术基础、原理与优缺点等方面对常用的遥感图像融合方法进行了阐述,主要包含PCA融合、HIS融合和小波融合。
然后又介绍了如何评价融合的结果,提出了一些量化的评价方法。
最后在传统图像融合方法的基础上提出了新的融合方法,如基于PCA与IHS融合的新的图像融合方法,并通过实验验证分析了新方法的可行性。
关键词:
遥感,遥感图像融合,PCA融合,HIS融合
ABSTRACT
RemoteSensingImageFusionisoneofthekeytechniquesintheRemoteSensing(RS)domain.WiththerapiddevelopmentoftheRS,informationfusionhasbeenplayinganincreasinglyimportantrole.AfterabriefintroductiontotheRSTechnologyandRSinformationfusion,thispaperdescribesthemulti-spectrumimagefusionindetail,withtheemphasisonthePCAFusion,theHISFusionandtheWaveletFusionapproach,whosemathematicalfoundation,principleandtraitsareexploredinturn.FinallyinthetraditionalimagefusionisproposedonthebasisofanewfusionmethodbasedonPCAandHIS,suchasthenewimagefusionmethodfusion,andthroughexperimentverificationanalyzedthenewmethodisfeasible.
Keywords:
RemoteSensing,RemoteSensingImageFusion,PCAFusion,HISFusion
1前言
遥感图像融合就是将不同类型传感器获取的同一地区的图像数据进行空间配准,然后采用一定方法将各图像的优点或互补性有机结合起来产生新图像的技术。
它是遥感图像应用和分析的一种重要的手段,特别是当前遥感技术的迅速发展,多源遥感数据(多传感器、多时相、多波段、多平台、多分辨率)的获取变得越来越方便,多源图像之间融合的意义也就显得越来越重要。
将高分辨率的图像和低分辨率多光谱图像进行融合,已成为遥感应用研究领域的重要主题。
研究者们从各个不同的应用领域,提出了多种不同的图像融合方法,具有代表性的方法有:
PCA(主成分分析)变换法、HIS变换法、多分辨率小波分析法
。
1.1遥感图像融合方法研究目的与意义
图像融合是将两个或者两个以上的传感器在同一时间(或不同时间)获取的关于某个具体场景的图像或者图像序列信息加以综合,生成一个新的有关此场景的解释,从而使融合的图像更适应人眼感知或计算机后续处理,如图像分割、目标识别等。
图像融合的目的是产生更可靠的数据并增加可用性,即数据可信度增加,不确定性减少,图像融合的主要应用体现在以下几个方面:
1)提高空间分辨率
图像融合可提高数据的空间分辨率。
如将高分辨率单色图像Spot—PAN与低分辨率多光谱图像LandSat—TM进行融合,在保留多光谱信息的同时,图像空间分辨率得到提高,这就意味着更多图像细节可以显示。
类似的还有SAR雷达图像和TM的融合,同样可以提高多光谱图像的空间分辨率。
2)图像增强
综合来自多传感器(或者单一传感器在不同时间)的图像,获得比原始图像更高清晰度的新图像。
如将融合技术用于同一数码相机在不同时间拍摄的对同一对象的聚焦点不同的图像,可以获得比原始图像更加清晰的图像。
3)提高分类识别精度
多源数据的复合可以显著提高图像分类识别的精度。
如利用微波图像和光学图像相的补互信息可以识别一些地物,光学数据是依靠地物在图像上的光谱
特征来分类,然而一些具有相似的光谱响应的植被很难被分开,因此雷达图像可用作辅助数据来识别难以区分的植被类型。
在分类模型上,由于多源数据难以满足传统的概率统计模型的数据分布条件,因此人工神经网络模型和证据推理理论在此领域具有更大的应用潜力。
4)信息互补
任何传感器都有自己的优势和不足。
如多光谱传感器数据的光谱信息丰富,但它易受云雾的遮挡而不能获得相应的地面结构信息。
有时地面的阴影也能产生解读的不准确性。
SAR雷达数据纹理信息丰富,分辨率高,具有全天时全天候观测的优点,但易受地面起伏的影响,因此,不同类型传感器图像的融合可以弥补各自的不足,发挥各自的优势。
此外,图像的融合在特征提取、去噪、目标识别跟踪以与三维重建等方面也有着积极的作用。
1.2图像融合的研究和发展现状
图像融合技术最早是被应用于遥感图像的分析和处理中。
1979年,Daliy等人首先把雷达图像和Landsat-MSS图像的复合图像应用于地质解释,其处理过程可以看作是最简单的图像融合。
1981年,Laner和Todd进行了Landsat—RBV和MSS图像数据的融合试验。
到80年代中后期,图像融合技术开始引起人们的关注,陆续有人将图像融合技术应用于遥感多谱图像的分析和处理,如多光谱遥感图像与SPOT卫星得到的高分辨率图像进行融合。
90年代以后,随着多颗遥感雷达卫星JERS-1,ERS-I,Radarsat等的发射升空,图像融合技术成为遥感图像处理和分析中的研究热点之一。
对遥感图像进行融合处理的目的主要有锐化、改善几何矫正、色彩矫正、改善分类特性、弥补某种图像中丢失的数据、检测/观测大地环境的变化等等。
其采取的融合方法主要有IHS变换、平均、加权平均、差分与比率、PCA、高通滤波等。
这些方法在进行融合处理时都不对参加融合的图像进行分解变换,融合处理只是在一个层次上进行的,因此均属于简单的图像融合方法。
80年代中期,人们提出了基于金字塔方法的图像融合方法,其中包括拉普拉斯金字塔、梯度金字塔、比率低通金字塔等,并开始将图像融合技术应用于一般的图像处理(可见光图像、红外图像、多聚焦图像等)。
90年代,小波理论的广泛应用,为图像融合提供了新的数学工具。
小波变换具有良好的时域和频域的局部性以与多分辨性,因此在多分辨率图像融合应用中,小波分析技术己经取代了传统的高斯—拉普拉斯金字塔技术。
人们针对传统的Mallat方法与选择不同的小波基函数和不同的融合算法进行了深入研究,取得了一些进展。
同时,对Atrous算法,基于第二代小波、基于树状小波以与基于小波包等的融合技术进行了深入的研究。
这使得图像融合技术的研究呈不断上升的趋势,应用的领域也遍与到遥感图像处理、计算机视觉、自动目标识别、机器人、医学图像处理等各个领域。
如在医学上,可通过对CT与核磁共振图像的融合,以帮助对疾病的准确判断;图像融合还可以用于计算机辅助显微手术。
另外,图像融合还可用于交通管理和航空管制。
图像融合技术在美、英等技术发达国家受到高度重视并己取得相当的进展,如在海湾战争中发挥很好作战性能的“LANTIAN”吊舱就是一种可将前视红外、激光测距、可见光摄像机等多种传感器信息迭加显示的图像融合系统。
美国TI公司1995年底从美国夜视和电子传感器管理局(NVESD)获得将DSP为核心的图像融合设计集成到先进直升机驾驶(AHP)传感器系统的合同。
在20世纪90年代,美国海军在SSN一&91(孟菲斯)潜艇上安装了第一套图像融合样机,可使操纵手在最佳位置上直接观察到各传感器的全部图像。
1998年1月7日《防务系统月刊》电子版报道,美国国防部己授予BTG公司两项合同,其中一项就是美国空军的图像融合系统设计合同,此系统能给司令部一级的指挥机构和网络提供比较稳定的战场图像。
在医学发展方面,2001年11月25日30日在美国芝加哥召开了每年一度的RSNA北美放射学会年会,在会议上GE公司医疗系统部展销了其产品DiscoveryLS。
DiscoveryLS是GE公司于2001年6月刚推出的最新PET/CT,是世界上最好的PET(正电子发射断层扫描)与最高档的多排螺旋CT的一个完美结合,具有单体PET不能比拟的优势。
1.3遥感融合技术亟待解决的问题
遥感图像融合经过近二十年的发展,已经取得了非常广泛的应用。
但是还有一些问题亟待解决。
(1)完善遥感图像融合理论和框架
对遥感图像融合理论和框架进行进一步完善。
目前遥感图像融合没有统一的融合模型,目前的融合模型大致可以分为空间域融合模型,颜色变换域融合模型和小波变换域融合模型三类。
寻求一种更广义的融合模型,为遥感融合确定广义的框架是一项非常有指导意义的工作。
(2)构建合理的融合评价体系
面对海量的遥感数据,要实现对图像的自动判读和解译,评价是一个至关重要的环节。
然而,对遥感图像融合的评价是一个薄弱环节,建立更加合理的融合评价体系是构建遥感图像处理系统的一个非常重要的问题,迫切需要解决。
(3)多尺度几何分析方法的应用(MGA)
虽然小波等多分辨率分析方法在遥感图像融合中取得了成功,但是小波变换对于高频细节分量只有有限的感知能力(垂直、水平和对角线三个方向),遥感图像通常包含有丰富的纹理信息,高频细节分量多。
多尺度几何分析方法(MultiscaleGeometricAnalysis,以下简称MGA)工具使小波分析进入了后小波时代,近年来涌现出各种多尺度几何分析(MultiscaleGeometricAnalysis,简称MGA)算法,如Ridglet,Curvlet,Bandlet,Brush-let,Shearlet和Contourlet等。
MGA变换的基本思想是将图像分解为一个多尺度多方向的表示形式。
(4)不同传感器平台进行图像配准
在遥感图像融合的过程中,融合算法一般对图像的配准要求非常严格。
通常对于同一平台同一时刻获取的图像进行配准较容易,然而对不同的传感器平台,不同的时刻得到的图像进行准确的图像配准往往是一件较困难的事情,如何在图像配准存在较小的平移、旋转、缩放误差的情况下,减小融合图像的失真度,为目标识别和解译奠定良好的基础有着非常重要的现实意义。
具有平移不变性的多分辨率和多尺度多方向分析工具能够减小图像因未能严格配准所造成的失真,是未来研究的一个重要方向。
(5)基于区域特征的遥感图像融合算法研究
遥感图像融合通常是为目标识别和图像解译服务的,独立于图像之外的像素点并不能提供任何对目标识别和图像解译有用的信息,我们通常更关注的是图像中的区域,提取的区域特征信息应是像素信息的充分表示量或充分统计量,如边缘、形状、轮廓、角、纹理、相似亮度区域、相似景深区域等。
基于区域分割的图像融合算法以包含有用信息的区域作为融合对象对图像进行融合处理。
首先,用一些成熟的区域分割算法对已经配准的图像进行分割,区域分割算法有很多,主要有基于图论的分割法、基于模糊集合的分割法、阈值分割法、像素分割法、区域提取法、边缘分割法、微分算子边缘检测法等,依据融合图像的实际情况合理选择区域分割算法;接着对分割的区域进行分析,产生一个联合区域作为融合的区域图;最后采用成熟的融合算法(如简单加权,小波分析和多尺度几何分析算法等)对联合区域图中各区域进行融合,得到融合图像。
基于区域特征的遥感图像融合算法将目标识别和图像解译的需求予以提前考虑,是未来融合算法的一个趋势。
(6)海量数据的处理
遥感图像融合系统的实时性。
由于遥感数据量非常大,现有的融合算法在普通的商用计算机上对遥感图像进行实时处理是一件非常困难的事情。
开发专用的遥感图像融合处理芯片,或者基于高端DSP和FPGA开发融合处理系统是解决实时性要求的趋势。
在实时性要求不高的场合,对海量数据的处理依然是一件非常艰巨的工作,由于地面上不受空间的限制,我们可以开发更高效的融合算法,或者进行分布式并行处理。
(7)基于遥感融合技术的三维成像技术
基于遥感图像融合的三维成像技术研究。
由于二维遥感图像融合只能看成是现实三维世界的一个投影,所能提供的信息有限,仅仅提供平面信息,因此越来越多的研究将集中于基于遥感融合技术的三维成像技术
。
2遥感图像融合的基本理论
2.1遥感图像融合的特点
尽管多源图像融合也属于多传感器数据融合的范畴,但由于图像是一种特殊形式的信号,多传感器图像融合有其自身的特殊性和复杂性。
其特殊性和复杂性主要表现为:
(1)通常,图像是二维信号,图像信息数据量很大。
例如仅一幅256*256的灰度图像,就要求约512kbits的数据量。
因此,多传感器图像融合所面临的数据量是一般数据融合所无法比拟的。
(2)由于图像的特征往往是由多个像素“集中”体现出来的,因此,在某一特定局部区域内的像素间往往具有相关性。
例如,就电视画面而言,同一行中相邻两个像素或相邻两行间的像素,其相关系数有时可达0.9以上,而相邻两帧之间的相关性比帧内相关性可能还要大些。
因此,图像融合并非是简单的大量“独立”像素间的融合。
(3)通常情况下,图像融合对参加融合图像的配准精度要求很高(尤其是像素级图像融合),例如像素级图像融合的配准精度最好能达到像素级。
而一般数据融合(如位置融合等)的配准精度要求就低得多。
一般数据融合中,若传感器的分辨率不同,对融合处理的处理过程或许不会增加太多的负担(不少情况下仍可直接融合);而在像素级图像融合的处理中,若两传感器图像的分辨率不同,则图像不能直接融合,必须进行预处理后方可融合。
图像中包含了大量的信息。
据估计,人从外界获取的信息中,约有80%信息是通过视觉(以图像的形式)获得的。
这就意味着图像融合的潜力很大,如何从图像中提取更多的有用信息,对图像融合技术提出了更高的要求。
不同应用场合对图像融合的要求是不同的。
在不同应用场合可以采用不同的融合方法和融合规则,有时对图像的不同区域也可采用不同的融合方法与融合规则。
那么,如何去评价某种融合方法的融合性能呢?
这就需要建立合理的融合性能/融合效果的评价方法和准则。
然而,这一问题至今仍未得到较好地解决。
2.2遥感图像融合原理
多源遥感影像数据融合是将同一环境或对象的多源遥感影像数据综合的方法和工具的框架,以获得满足某种应用的高质量信息,产生比单一信息源更精确、更完全、更可靠的估计和判决。
因此,多源遥感影像数据融合的数据源可来自各个层次,既可以是同一传感器的不同波段和不同时间获取的影像,还可以是来自不同处理水平的数据。
对多源遥感数据进行融合,主要是进行影像的空间配准和影像融合两步。
影像的空间配准影像的空间配准是遥感影像数据融合的前提,对于两幅影像的空间配准,一般把其中一幅作为参考影像,以它为基准对另一幅影像进行校正。
其操作步骤如下。
1)特征选择。
在欲配准的两幅影像上,选择明显特征点。
2)特征匹配。
采用一定配准算法,找出两幅影像上对应的明显地物点作为控制点。
3)空间变换。
根据控制点,建立影像间的映射关系。
4)插值。
根据映射关系,对非参考点影像进行重采样,获得同参考影像配准的影像。
空间配准的关键问题是:
通过特征匹配寻找对应的明显地物作为控制点。
影像融合根据融合的目的和层次,选择合适的融合算法,将空间配准的遥感影像数据进行有机合成,得到目标更准确的表示和估计。
2.3图像融合的层次与其比较
图像融合根据其处理所处的阶段不同分为3个层次的融合,即像素级融合、特征级融合和决策级融合,3个层次所采用的融合算法各不相同,图像融合通常按照这3个层次相应地划分为3类:
1)像素级图像融合
像素级图像融合属于底层图像融合,在这种融合形式中,首先将全部传感器的观测数据融合,然后从融合的数据中提取特征向量,并进行判断识别。
这便要求传感器是同质的(传感器观测的是同一物理现象),如果多个传感器是异质的(观测的不是同一个物理量),那么数据只能在特征层或决策层进行融合。
像素级图像融合的优点在于尽可能多地保留了场景的原始信息,通过对多幅图像进行像素级图像融合,可以增加图像中像素级信息,它提供了其他两个层次,即特征级图像融合和决策级图像融合所不具有的细节信息,进行融合的各图像可能来自多个不同类型的图像传感器,也可能来自单一的图像传感器。
单一图像传感器提供的各个图像可能来自不同观测时间或空间(视角),也可能是同一时间和空间但光谱特性不同的图像(如多光谱照相机获得的图像)。
与单一传感器获得的单帧图像相比,通过像素级图像融合后的图像包含的信息更丰富、精确、可靠、全面,更有利于图像的进一步分析、处理与理解。
像素级图像融合的结构示意图,如图2.1所示
图2.1像素级图像融合的结构示意图
2)特征级图像融合
特征级图像融合是中间层的融合处理过程,利用从各个传感器图像的原始信息中提取特征信息进行综合分析与融合处理,通过特征级图像融合不仅可以增加从图像中提取特征信息的可能性,还可能获取一些有用的复合特征。
所谓主要特征是通过对图像数据进行空间或时间上的分割等处理获得的,而复合特征是通过对现有各个特征的综合得到的。
从图像中提取并用于融合的典型特征信息有边缘、角、纹理、相似亮度区域、相似景深区域等。
当在特定环境下的特定区域中,多传感器图像均具有相似的特征时,说明这些特征实际存在的可能性极大,同时对该特征的检测精度也可大大提高。
融合处理后得到的特征可能是各种图像特征的综合,如融合后的边缘是不同传感器检测得到的边缘段的综合,也可能是一种完全新型的特征,如对用立体照相机得到的各图像中的边缘信息进行融合处理形成的3维边缘。
特征层图像融合的结构示意图,如图2.2所示
图2.2特征级图像融合的结构示意图
3)决策级图像融合
决策级的图像融合是在信息表示的最高层上进行的融合处理。
在进行融合处理前,先对从各个传感器获得的图像分别进行预处理、特征提取、识别或判决,建立对同一目标的初步判决和结论;然后对来自各个传感器的决策进行相关配准处理;最后进行决策级的融合处理,从而获得最终的联合判决。
决策级融合是直接针对具体的决策目标,充分利用了来自各个图像的初步决策,因此在决策级图像融合中,对图像的配准要求很低,在某些情况下甚至是无须考虑,因为其各个传感器的决策已经符号化或数据化了。
由于对传感器的数据进行了浓缩,这种方法产生的结果相对而言最不准确,但它对通信带宽的要求最低,融合中心常用的融合方法有Bayea方法、Demp-ster-shafter方法,广义推理理论或根据不同情况而专门设计的各种方法,决策级图像融合的结构示意图,如图2.3所示
图2.3决策级图像融合的结构示意图
表2.1中给出了图像融合在上述3个层次中的性能特点比较说明。
从表中以与上面的表述中可知,在这3个层次中,像素级图像融合是最重要、最根本的多传感器图像融合方法,其获取的信息量最多,检测性能最好,而难度也是最大的。
目前的图像融合,绝大多数的方法都属于像素级图像融合
。
表2.1图像融合的3个层次性能比较表
性能像素级融合特征级融合决策级融合
信息量最大中等最小
信息损失最小中等最大
容错值最差中等最好
抗干扰性最差中等最好
对传感器的依赖性最强中等最弱
预处理最小中等最大
分类性能最后中等最差
融合方法的难易性最难中等最易
系统的灵活性最差中等最好
3ERDASIMAGINE介绍
目前遥感图像处理软件繁多,主要有PCIGEOMATICA、ERDASIMAGINE、ENVI、ERMapper,本文以ERDASIMAGINE为操作平台对遥感图像进行处理、分析、结果验证。
3.1ERDASIMAGINE软件图像处理特点
1)方便和直观的操作步骤使用户操作非常灵活:
ERDASIMAGINE具有非常友好、方便地管理多窗口的功能。
不论是几何校正还是航片、卫片区域正射校正以与其它与多个窗口有关的功能,IMAGINE都将相关的多个窗口非常方便地组织起来,免去了用户开关窗口、排列窗口、组织窗口的麻烦,应用方便因而加快了产品的生产速度。
IMAGINE的窗口提供了卷帘、闪烁、设置透明度以与根据坐标进行窗口联接的功能,为多个相关图像的比较提供了方便的工具。
IMAGINE的窗口还提供了整倍的放大缩小、任意矩形放大缩小、实时交互式放大缩小、虚拟与类似动画游戏式漫游等工具,方便对图像进行各种形式的观看与比较。
2)ERDASIMAGINE为不同的应用提供了250多种地图投影系统。
支持用户添加自己定义的坐标系统。
支持不同投影间的实时转换、不同投影图像的同时显示对不同投影图像直接进行操作等。
支持相对坐标的应用。
另外有非常方便的坐标转换工具,经纬度到大地坐标,反之亦然。
3)常用的图像处理算法都可用图形菜单驱动,用户也可指定批处理方式(batch),使图像处理操作在用户指定的时刻开始执行;
4)图像的处理过程可以由图像的属性信息控制,而上层属性信息可存在于本层或任何其他数据层次;
5)图像处理过程可以用于具有不同分辨率的图像数据上,输出结果的分辨率可由用户指定;
6)支持对不同图像数据源的交集、并集和补集的图像处理;
7)图解空间建模语言,EML和C语言开发包的应用使得解决应用问题的客户化更加容易与简单。
用户可以对IMAGINE本身应用的功能进行客户化的编辑,满足自己专业的独特需求。
还可以将自己多年探索、研究的成果与工作流程以模型的形式表现出来。
模型既可以单独运行也可以和界面结合像其它功能一样运行。
更可以利用CToolkit进行新型算法与功能的开发。
8)独一无二的专家工程师与专家分类器工具,为高光谱、高分辨率图像的快速高精度分类提供了可能。
此工具突破了传统分类只能利用光谱信息的局限,可以利用空间信息辅助分类。
此工具可以把所有数字信息应用于分类,是分类应用的一大飞越。
其功能强大且应用方便,其提供的游标功能使知识库的优化成为轻而易举的操作。
其知识库的可移动性为其它非专业人员进行分类工作提供了方便,为成熟知识库的推广应用提供了方便易行的途径。
利用专家的知识还可以建立决策支持系统,为决策人提供工具。
3.2ERDASIMAGINE软件中遥感影像融合具体过程
为了得到1米分辨率的彩色影像数据,将IKONOS影像的多光谱波段数据和其全色波段数据进行融合。
ERDAS图标面板工具条,单击Interpreter图标|SpatialEnhancement|ResolutionMerge命令,打开ResolutionMerge对话框,如图3.1所示。
图3.1ResolutionMerge对话框
在ResolutionMerge对话框中,需要设置下列参数:
3.2.1选择融合的影像文件如图3.2
图3.2ResolutionMerge
1)高分辨率影像文件(HighResolutionInputFile),对于IKONOS影像来说就是指全色波段的影像文件;
2)多光谱影像文件(MultispectralInputFile),这里指包含多个波段数据的影像文件。
使用ERDASIMAGIN软件提供的LayerSelectionandStacking功能(ImageInterpreter|Utilities...|LayerStack....)将IKONOS的多光谱波段的影像文件合成一个影像文件;
3)融合后输出文件(O
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 遥感 毕业设计 论文 融合 技术