遥感数据融合

遥感数据融合
遥感数据融合

遥感图像的融合

1、目的与要求

1、了解遥感图像融合的原理和方法

2、熟悉高、低分辨率的影像的融合步方法骤

3、掌握遥感软件中常用的遥感数据融合的步骤与方法

2、实验内容

选择ETM8波段的数据与假彩色合成波段的数据做融合处理。融合的方法主要是高、低分辨率遥感数据的融合。

数据要求:在融合之前,第8波段和合成波段数据都已经经过了几何校正和辐射校正等预处理。

3、实验步骤

1、空间分辨率融合

选择“Erdas”面板菜单“Interpreter”->”Spatial Enhancement”->”Resolution Merge”命令,打开“Resolution Merge”对话框。设置如下参数:

文件设置:高空间分辨率的输入图像、多光谱输入图像和输出文件。

融合方法的选择:

¤主成分变换法

¤乘积变换法

¤比值变换法

主成分变换法:

融合前融合后乘积变换法:

融合前融合后

2、IHS融合

选择“Erdas”面板菜单“Interpreter”->”Spatial Enhancement”->”Mod.IHS Resolution Merge”命令,打开”Mod.IHS Resolution Merge”对话框,在输入、层选择和输出3个页面中设置参数。

融合前融合后

3、高通滤波融合

选择“Erdas”面板菜单“Interpreter”->”Spatial Enhancement”->”HPF Resolution Merge”命令,

打开”HPF Resolution Merge”对话框,设置如下参数:

R值:多光谱图像分辨率与高分辨率图像的分辨率的比值。通过它可以调整卷积核的大小和中心值。

Kernel Size:高通滤波卷积核的大小,有R值决定。

Center Value:卷积核的中心值。

Weighting Factor:权重影响因子。

2Pass Processing :二次滤波选项。当R值大于或等于5.5时,此选项才生效。

融合前融合后

二、实验15 遥感影像的分类(1)-非监督分类

1、目的与要求

1、熟悉掌握遥感图像分类及非监督分类的含义

2、掌握图像非监督分类最基本的处理方法

3、了解分类后评价过程

三、实验内容

数据要求:

(1)确定待分类的假彩色合成影像,该数据经过了几何校正和辐射校正等预处理。

(2)对波段的选择应该是广义的。这个波段可以是原多光谱波段、图像增强的结果数据,还可以是非遥感数据。

实验主要内容

(1)非监督分类前分类参数的选择

(2)非监督分类的过程和方法

(3)非监督分类初始结果的评价

四、实验步骤

1、待分类图像分类参数选择

选择ERDAS面板菜单“Classifier”->“Unsupervise Classification”命令,打开“Unsupervised

Classification”对话框,设置如下参数:

2、ERDAS软件非监督分类

3、非监督分类结果评价方法(1)打开分类前和分类后图像

(2)分类图像评价环境设置

(3)确定类别并标注

1、2、3最终处理结果如下:

(4)检查分类结果的精度卷帘显示:

混合显示:

独立视图窗口显示对比:

(完整版)信息融合算法

信息融合算法 1 概述 信息融合又称数据融合,是对多种信息的获取、表示及其内在联系进行综合处理和优化的技术。经过融合后的传感器信息具有以下特征:信息冗余性、信息互补性、信息实时性、信息获取的低成本性。 1、组合:由多个传感器组合成平行或互补方式来获得多组数据输出的一种处理方法,是一种最基本的方式,涉及的问题有输出方式的协调、综合以及传感器的选择。在硬件这一级上应用。 2、综合:信息优化处理中的一种获得明确信息的有效方法。 例:在虚拟现实技术中,使用两个分开设置的摄像机同时拍摄到一个物体的不同侧面的两幅图像,综合这两幅图像可以复原出一个准确的有立体感的物体的图像。 3、融合:当将传感器数据组之间进行相关或将传感器数据与系统内部的知识模型进行相关,而产生信息的一个新的表达式。 4、相关:通过处理传感器信息获得某些结果,不仅需要单项信息处理,而且需要通过相关来进行处理,获悉传感器数据组之间的关系,从而得到正确信息,剔除无用和错误的信息。 相关处理的目的:对识别、预测、学习和记忆等过程的信息进行综合和优化。

2 技术发展现状 信息融合技术的方法,概括起来分为下面几种: 1)组合:由多个传感器组合成平行或互补方式来获得多组数据 输出的一种处理方法,是一种最基本的方式,涉及的问题有 输出方式的协调、综合以及传感器的选择。在硬件这一级上 应用。 2)综合:信息优化处理中的一种获得明确信息的有效方法。例: 在虚拟现实技术中,使用两个分开设置的摄像机同时拍摄到 一个物体的不同侧面的两幅图像,综合这两幅图像可以复原 出一个准确的有立体感的物体的图像。 3)融合:当将传感器数据组之间进行相关或将传感器数据与系 统内部的知识模型进行相关,而产生信息的一个新的表达式。 4)相关:通过处理传感器信息获得某些结果,不仅需要单项信 息处理,而且需要通过相关来进行处理,获悉传感器数据组 之间的关系,从而得到正确信息,剔除无用和错误的信息。 相关处理的目的:对识别、预测、学习和记忆等过程的信息 进行综合和优化。 3 算法描述 3.1 Bayes融合 Bayes融合是融合静态环境中多传感器低层数据的一种常用方法。

遥感图像融合方法比较

1 绪论 1.1研究目的及意义 20世纪90年代中后期以后,搭载许多新型传感器的卫星相继升空,使得同一地区的遥感数据影像数目不断增多。如何有效地利用这些不同时相、不同传感器、不同分辨率的遥感数据便成为了遥感工作者研究的瓶颈问题,然而解决这一问题的关键技术就是遥感影像数据融合。 遥感数据融合就是对多个遥感器的图像数据和其他信息的处理过程,它着重于把那些在空间或时间上冗余或互补的多源数据,按一定法则(算法)进行处理,获得比单一数据更精确、更丰富的信息,生成一幅具有新的空间、波谱和时间特征的合成图像。 遥感是不同空间、时间、波谱、辐射分辨率提供电磁波谱不同谱段的数据。由于成像原理不同和技术条件的限制,任何一个单一遥感器的遥感数据都不能全面的反映目标对象的特征,也就是有一定的应用范围和局限性。各类非遥感数据也有它自身的特点和局限性。影像数据融合技术能够实现数据之间的优势互补,也能实现遥感数据与地理数据的有机结合。数据融合技术是一门新兴的技术,具有十分广阔的应用前景。所以,研究遥感影像数据融合方法是非常必要的。 1.2研究现状及发展的趋势 1.2.1研究现状 20世纪美国学者提出“多传感器信息融合”的概念认为在多源遥感影像数据中能够提取出比单一遥感影像更丰富、更有效、更可靠的信息。之后由于军事方面的要求,使得遥感影像数据融合技术得到了很大的发展,美、英,德等国家已经研制出了实用的遥感数据融合处理的系统和软件,同时进行了商业应用。 1)、融合结构 融合的结构可分为两类:集中式和分布式。集中式融合结构:各传感器的观测数据直接被送到中心,进行融合处理,用于关联、跟踪、识别等。分布式融合结构:每个传感器独立完成关联、识别、跟踪,然后由融合中心完成配准、多源关联的融合。 2)、融合的层次 图像融合可分为:像元级融合、特征级融合和决策级融合。 像元级融合是最低级的信息融合,可以在像素或分辨单位上进行,又叫做数据级融合。它是对空间配准的遥感影像数据直接融合,然后对融合的数据进行特征提取和属性说明。 特征级融合是由各个数据源中提取特征信息进行综合分析和处理的过程,是中间层次的融合。特征级融合分为目标状态信息融合和目标特征融合。 决策级融合是在信息表示的最高层次上进行融合处理。首先将不同传感器观测同一目标获得的数据进行预处理、特征提取、识别,以建立对所观测目标的初步理论,然后通过相关处理、决策级融合判别,最终获得联合推断结果,从而为决策提供依据。

遥感影像融合处理方法

遥感影像融合处理方法 摘要:本文介绍了遥感影像数据融合技术,并给出了融合的一些基本理论、融合处理一般步骤以及常用融合处理方法,最后简要描述了融合评价的方式方法等。 关键词:遥感影像融合融合评价 1、前言 将高分辨率的全色遥感影像和低分辨率的多光谱遥感影像进行融合,获得色彩信息丰富且分辨率高的遥感融合影像的过程,成为遥感影像融合。全色影像一般具有较高空间分辨率,多光谱影像光谱信息较丰富,为提高多光谱影像的空间分辨率,可以将全色影像融合进多光谱影像。通过影像融合既可以提高多光谱影像空间分辨率,又能保留其多光谱特性。 2、遥感影像融合一般步骤 遥感影像信息融合一般流程主要分为两个阶段:图像预处理,图像融合变换。 图像预处理主要包括:几何校正及影像配准。几何校正主要在于去除透视收缩、阴影等地形因素以及卫星扰动、天气变化、大气散射等随机因素对成像结果一致性的影响;影像配准的目的在于消除由不同传感器得到的影像在拍摄角度、时相及分辨率等方面的差异。 3 常用融合方式 3.1 IHS融合 IHS(亮度I、色度H、饱和度S)变换就是将影像从RGB彩色空间变换到IHS空间来实现影像融合的一种方法。由光学、热红外和雷达(微波)等方式得到的不同波段遥感数据,合成的RGB颜色空间是一个对物体颜色属性描述系统,而IHS色度空间提取出物体的亮度、色度、饱和度,它们分别对应每个波段的平均辐射强度、数据向量和的方向及其等量数据的大小。RGB颜色空间和IHS 色度空间有着精确的转换关系。IHS变换法只能用三个波段的多光谱影像融合和全色影像融合。 3.2 小波融合 小波变换,基于遥感影像的频域分析进行的,由于同一地区不同类型的影像,低频部分差别不大,而高频部分相差很大,通过小波变换对变换区实现分频,在分频基础上进行遥感影像的融合,常用于雷达影像SAR与TM影像的融合。

高分辨率遥感图像融合方法的比较正式

包头师范学院 本科学年论文 论文题目:高分辨率遥融图像融合方法比较院系:资源与环境学院 专业:地理信息系统 学号:0912430022 姓名:郭殿繁 指导教师:同丽嘎 撰写学年:2010 至2011 学年 二零一零年十二月

摘要:目前,遥感中高分辨率全色遥感影像和低空间分辨率的多光谱遥感影像融合是影像融合技术应用的主流。本文通过对遥感影像四种融合方法的研究,并且用呼和浩特市快鸟影像图像融合举例,加深对四种融合方法的理解和理论应用,最后通过截取呼和浩特市快鸟影像的原始多波段彩色影像和原始高分辨率全色波段影像的一部分进行四种融合方法来进行精度的比较,以ENVI4.7软件作为平台,最终得出,Gram-Schmidt变换效果最好,HSV变换融合效果最差。 关键词:图像融合;PCA变换;Gram-Schmidt变换;Brovey变换;HSV变换;精度比较 Abstract: At present, the remote sensing high resolution full-color remote sensing image and low spatial resolution multi-spectral remote sensing image fusion is image fusion technology application of mainstream. This article through to four kinds of remote sensing image fusion method with the principle and analysis, and in Hohhot, fast image image fusion for example, the bird to deepen the understanding of four fusion method and theory, and finally by intercepting the original image Hohhot fast bird multichannel color image and primitive high-resolution full-color band image on the part of four fusion method for precision compared to ENVI4.7 software as a platform to finally arrive, the best effect, Schmidt transform - the worst. Fusion result transformation HSV. Key words: image fusion, PCA transform; Schmidt transform; the - Brovey transform; HSV transform; Precision;

数据融合方法优缺点

数据融合方法 随着交通运行状态评价研究的不断发展,对数据的准确性和广泛覆盖性提出了更高的要求,在此基础上,不同的数据融合模型被引进应用于交通领域中来计算不同检测设备检测到的数据。现阶段,比较常用的数据融合方法主要有:表决法、模糊衰退、贝叶斯汇集技术、BP神经网络、卡尔曼滤波法、D.S理论等方法。 1现有方法应用范围 结合数据融合层次的划分,对数据融合方法在智能交通领域的应用作以下归纳总结: 表数据融合层次及对应的方法 2各种融合方法的优缺点 主要指各种融合方法的理论、应用原理等的不同,呈现出不同的特性。从理论成熟度、运算量、通用性和应用难度四个方面进行优缺点的比较分析,具体内容如下: (1)理论成熟度方面:卡尔曼滤波、贝叶斯方法、神经网络和模糊逻辑的理论已经基本趋于成熟;D—S证据推理在合成规则的合理性方

面还存有异议;表决法的理论还处于逐步完善阶段。 (2)运算量方面:运算量较大的有贝叶斯方法、D.S证据推理和神经网络,其中贝叶斯方法会因保证系统的相关性和一致性,在系统增加或删除一个规则时,需要重新计算所有概率,运算量大;D.S证据推理的运算量呈指数增长,神经网络的运算量随着输入维数和隐层神经元个数的增加而增长;运算量适中的有卡尔曼滤波、模糊逻辑和表决法。 (3)通用性方面:在这六种方法中,通用性较差的是表决法,因为表决法为了迁就原来产生的框架,会割舍具体领域的知识,造成其通用性较差;其他五种方法的通用性相对较强。 (4)应用难度方面:应用难度较高的有神经网络、模糊逻辑和表决法,因为它们均是模拟人的思维过程,需要较强的理论基础;D.S证据推理的应用难度适中,因其合成规则的难易而定:卡尔曼滤波和贝叶斯方法应用难度较低。 3 适用的交通管理事件 之前数据融合技术在交通领域中的应用多是在例如车辆定位、交通事件识别、交通事件预测等交通事件中,但是几乎没有数据融合技术在交通运行状态评价的应用研究,而本文将数据融合技术应用在交通运行状态评价中,为了寻找到最适用于交通运行状态评价的数据融合技术方法,有必要将之前适用于其它交通管理事件的数据融合技术进行评价比较。 表2 各种融合方法适用的交通管理事件的比较

利用ENVI软件进行遥感图像的融合和增强实习报告

遥感图像处理实习报告 实验内容:影像融合与增强 班级:测绘1102班 学号:13 姓名: 指导老师:陈晓宁、黄远程、竞霞、史晓亮 西安科技大学 测绘科学与技术学院 二零一三年一月 实习三影像融合与增强

一、实习内容: 1.掌握ENVI中各种影像融合方法,并比较各方法的优缺点; 2.熟悉ENVI图像增强操作; 3.本实习的数据源为上节已经过校正的资源三号多光谱和全色影像。 二、实习目的: 1.了解和认识各种图像融合方法的原理、内容及要点; 2.熟悉、熟练操作ENVI软件中各种图像融合的方法、步骤并学会加以比较; 3.学习利用ENVI软件进行各种图像增强处理操作; 4.学会定性、定量分析比较图像融合的差异。 三、实习步骤: 1.图像融合: 三波段融合: HSV和Color Normalized (Brovey)变换: 1)从ENVI主菜单中,选择File → Open Image File,分别加载校正后的资源三号多光谱与全色影像到可用波段列表Available Bands List中; 2)选择多光谱3,2,1波段(可以根据需要选择)对应R,G,B,点击Load RGB将多光谱影像加载到显示窗口display#1; 3)在ENVI的主菜单选择Transform → Image Sharpening → HSV; 4)在Select Input RGB Input Bands对话框中,选择Display #1,然后点击OK。 5)从High Resolution Input File对话框中选择全色影像,点击OK。 6)从HSV Sharpening Parameters对话框中,选择重采样方法,并输入输出路径和文件名,点击OK。即可完成HSV变换融合;

多传感器数据融合算法.

一、背景介绍: 多传感器数据融合是一种信号处理、辨识方法,可以与神经网络、小波变换、kalman 滤波技术结合进一步得到研究需要的更纯净的有用信号。 多传感器数据融合涉及到多方面的理论和技术,如信号处理、估计理论、不确定性理论、最优化理论、模式识别、神经网络和人工智能等。多传感器数据融合比较确切的定义可概括为:充分利用不同时间与空间的多传感器数据资源,采用计算机技术对按时间序列获得的多传感器观测数据,在一定准则下进行分析、综合、支配和使用,获得对被测对象的一致性解释与描述,进而实现相应的决策和估计,使系统获得比它的各组成部分更充分的信息。 多传感器信息融合技术通过对多个传感器获得的信息进行协调、组合、互补来克服单个传感器的不确定和局限性,并提高系统的有效性能,进而得出比单一传感器测量值更为精确的结果。数据融合就是将来自多个传感器或多源的信息在一定准则下加以自动分析、综合以完成所需的决策和估计任务而进行的信息处理过程。当系统中单个传感器不能提供足够的准确度和可靠性时就采用多传感器数据融合。数据融合技术扩展了时空覆盖范围,改善了系统的可靠性,对目标或事件的确认增加了可信度,减少了信息的模糊性,这是任何单个传感器做不到的。 实践证明:与单传感器系统相比,运用多传感器数据融合技术在解决探测、跟踪和目标识别等问题方面,能够增强系统生存能力,提高整个系统的可靠性和鲁棒性,增强数据的可信度,并提高精度,扩展整个系统的时间、空间覆盖率,增加系统的实时性和信息利用率等。信号级融合方法最简单、最直观方法是加权平均法,该方法将一组传感器提供的冗余信息进行加权平均,结果作为融合值,该方法是一种直接对数据源进行操作的方法。卡尔曼滤波主要用于融合低层次实时动态多传感器冗余数据。该方法用测量模型的统计特性递推,决定统计意义下的最优融合和数据估计。 多传感器数据融合虽然未形成完整的理论体系和有效的融合算法,但在不少应用领域根据各自的具体应用背景,已经提出了许多成熟并且有效的融合方法。多传感器数据融合的常用方法基本上可概括为随机和人工智能两大类,随机类方法有加权平均法、卡尔曼滤波法、多贝叶斯估计法、产生式规则等;而人工智能类则有模糊逻辑理论、神经网络、粗集理论、专家系统等。可以预见,神经网络和人工智能等新概念、新技术在多传感器数据融合中将起到越来越重要的作用。 数据融合存在的问题 (1)尚未建立统一的融合理论和有效广义融合模型及算法; (2)对数据融合的具体方法的研究尚处于初步阶段; (3)还没有很好解决融合系统中的容错性或鲁棒性问题; (4)关联的二义性是数据融合中的主要障碍; (5)数据融合系统的设计还存在许多实际问题。 二、算法介绍: 2.1多传感器数据自适应加权融合估计算法: 设有n 个传感器对某一对象进行测量,如图1 所示,对于不同的传感器都有各自不同的加权因子,我们的思想是在总均方误差最小这一最优条件下,根据各个传感器所得到的测量值以自适应的方式寻找各个传感器所对应的最优加权因子,使融合后的X值达到最优。

遥感图像融合质量评价方法

遥感图像融合质量评价方法 武坚李崇伟王积武李相全 (68011部队甘肃兰州 730020) 摘要:图像融合可为摄影测量与遥感提供高质量的遥感融合图像。遥感融合图像质量如何是图像使用者关心的一个重要问题。本文运用主观评价、客观评价、几何质量等三种评价方法对融合后的遥感图像的质量展开讨论。实践表明这些评价方法能够保证融合后图像高质量地应用于摄影测量与遥感生产。 关键词:主观评价客观评价几何质量质量评价 1.前言 摄影测量与遥感[1]是以数字影像为基础,来确定被摄物体的形状、大小、空间位置及其性质。遥感图像是摄影测量与遥感最原始、最基本的资料。高质量的遥感图像是完成摄影测量与遥感的基础。遥感影像融合[2]是将多传感器、多时相、多光谱和多分辨率影像的各自局部优势信息整合处理,以提供高分辨率、多光谱的单一图像,解决遥感影像解译过程中信息不足的问题。由此看出,图像融合可以为摄影测量与遥感提供高质量的遥感影像。 2.图像融合的评价方法 当前对融合后图像的质量评价主要是主观目视与统计相关信息参数相结合的办法,即:利用目视效果和信息熵、清晰度、平均梯度、偏差指数、均方根误差等参数统计分析,而对融合后图像的几何量测性则关注较少。对于摄影测量与遥感应用,几何精度是一个很重要的因素。本文结合摄影测量与遥感应用角度,来对分析融合后图像的质量做出评价。 站在通用图像处理角度,目前大多数对影像质量评价分为主观评价和客观评价,并结合起来使用。主观评价是通过目视观察进行分析,客观评价是利用图像的统计参数进行判定。严格意义上讲,融合图像的主客观评价应该是一致的,即图像的统计参数特征应该符合人眼的目视感觉。但由于遥感图像融合具有特殊性,它不仅仅要求提高融合图像的空间分辨率,而且要尽可能制约[2]。因此,对遥感融合图像的质量评价,应综合考虑空间细节的增强和光谱保持原始图像的光谱特征。此外,这两个要求在很大程度上是不太相容,相互信息的保持两个方面,利用图像的统计参数结合目视观察来分析与评价。 对于摄影测量与遥感而言,影像的几何质量(影像的可量测性)是很重要的一个因素,它将决定融合图像能否达到数字地形图生产的精度限差[4]。因此,从主观、客观、几何质量等三个方面对做出质量评价可以保证融合后图像高质量地应用于摄影测量与遥感生产。

遥感图像的假彩色合成

北京化工大学 学士学位论文 遥感图像的假彩色合成 姓名:刘晓璐 班级:信息与计算科学0304班 学号:200362102

遥感图像的假彩色合成 摘要:遥感,作为采集地球数据及其变化信息的重要技术手段,在世界范围内及其我国的许多政府部门,科研单位和公司得到了广泛的应用。在遥感数据源向着更高光谱分辨率和更高空间分辨率发展的同时,处理技术也更加成熟;在应用上,结合了地理信息系统(GIS)和全球定位系统(GPS),向着更系统化,更定量化方向发展,使遥感数据的应用更加广泛和深入。 假彩色增强是将一幅彩色图像映射为另一幅彩色图像,从而达到增强彩色对比,使某些图像达到更加醒目的目的。 本文的主要目的就是大遥感的多光谱图像用自然彩色显示。在遥感的多光谱图像中,有些是不可见光波段的图像,如近红外,红外,甚至是远红外波段。因为这些波段不仅具有夜视能力,而且通过与其他波段的配合,易于区分地物。 用假彩色技术处理多光谱图像,目的不在于使景物恢复自然的彩色,而是从中获得更多的信息。为了实现这样的目的,本文采用了MATLAB数学软件编程的方法以及运用Envi4.2 软件直接编辑图像这两种方法,并对其进行对比,得出最优的合成图像。 关键词:图像融合,假彩色合成,彩色增强,灰度级,RGB图像,

False color mapping for image fusion Abstract: A pixel-based color-mapping algorithm is presented that produces a fused false color rendering of two gray-level images representing different sensor modalities. The resulting images have a higher information content than each of the original images and retain sensor specific image information. The unique component of each image modality is enhanced in the resulting fused color image representation. First, the component of two original input images is determined. Second, the common component of each image. Third, the unique component of each image modality is subtracted from the image of the other modality. This step serves to enhance the representation of sensor-specific details in the final fused result. Finally, a fused color image is produced by displaying the images resulting from the last step through, respectively, the red and green channels of a color display. The method is applied to fuse thermal and visual images. The results show that the color mapping enhances the visibility of certain details and preserves the specificity of the sensor information. The fused images also have a fairly natural appearance. The fusion scheme involves only operations on corresponding pixels. The resolution of the input images. Before fusing, the contrast of the images can be enhanced and their noise can be reduced by standard image processing techniques. The color mapping algorithm is computationally simple. This implies that the investigated approaches can eventually be applied in real time and that the hardware needed is not too complicated or too voluminous(an important consideration when it has to fit in an airplane, for instance). Key words: image fusion, false color mapping, color enhances, gray-level, RGB images

数据融合各种算法整理汇总

数据融合各种算法及数学知识汇总 粗糙集理论 理论简介 面对日益增长的数据库,人们将如何从这些浩瀚的数据中找出有用的知识? 我们如何将所学到的知识去粗取精?什么是对事物的粗线条描述什么是细线条描述? 粗糙集合论回答了上面的这些问题。要想了解粗糙集合论的思想,我们先要了解一下什么叫做知识?假设有8个积木构成了一个集合A,我们记: A={x1,x2,x3,x4,x5,x6,x7,x8},每个积木块都有颜色属性,按照颜色的不同,我们能够把这堆积木分成R1={红,黄,蓝}三个大类,那么所有红颜色的积木构成集合X1={x1,x2,x6},黄颜色的积木构成集合X2={x3,x4},蓝颜色的积木是:X3={x5,x7,x8}。按照颜色这个属性我们就把积木集合A进行了一个划分(所谓A的划分就是指对于A中的任意一个元素必然属于且仅属于一个分类),那么我们就说颜色属性就是一种知识。在这个例子中我们不难看到,一种对集合A的划分就对应着关于A中元素的一个知识,假如还有其他的属性,比如还有形状R2={三角,方块,圆形},大小R3={大,中,小},这样加上R1属性对A构成的划分分别为: A/R1={X1,X2,X3}={{x1,x2,x6},{x3,x4},{x5,x7,x8}} (颜色分类) A/R2={Y1,Y2,Y3}={{x1,x2},{x5,x8},{x3,x4,x6,x7}} (形状分类) A/R3={Z1,Z2,Z3}={{x1,x2,x5},{x6,x8},{x3,x4,x7}} (大小分类) 上面这些所有的分类合在一起就形成了一个基本的知识库。那么这个基本知识库能表示什么概念呢?除了红的{x1,x2,x6}、大的{x1,x2,x5}、三角形的{x1,x2}这样的概念以外还可以表达例如大的且是三角形的 {x1,x2,x5}∩{x1,x2}={x1,x2},大三角{x1,x2,x5}∩{x1,x2}={x1,x2},蓝色的小的圆形({x5,x7,x8}∩{x3,x4,x7}∩{x3,x4,x6,x7}={x7},蓝色的或者中的积木{x5,x7,x8}∪{x6,x8}={x5,x6,x7,x8}。而类似这样的概念可以通过求交运算得到,比如X1与Y1的交就表示红色的三角。所有的这些能够用交、并表示的概念以及加上上面的三个基本知识(A/R1,A/R2.A/R3)一起就构成了一个知识系统记为R=R1∩R2∩R3,它所决定的所有知识是 A/R={{x1,x2},{x3,x4},{x5},{x6},{x7},{x8}}以及A/R中集合的并。 下面考虑近似这个概念。假设给定了一个A上的子集合X={x2,x5,x7},那么用我们的知识库中的知识应该怎样描述它呢?红色的三角?****的大圆? 都不是,无论是单属性知识还是由几个知识进行交、并运算合成的知识,都不能得到这个新的集合X,于是我们只好用我们已有的知识去近似它。也就是在所有的现有知识里面找出跟他最像的两个一个作为下近似,一个作为上近似。于是我们选择了“蓝色的大方块或者蓝色的小圆形”这个概念: {x5,x7}作为X的下近似。选择“三角形或者蓝色的”{x1,x2,x5,x7,x8}作为它的上近似,值得注意的是,下近似集是在那些所有的包含于X的知识库

(完整版)遥感图像融合技术的发展现状

遥感图像融合技术的发展现状及趋势 1 引言 多源图像融合属于多传感器信息融合的范畴, 是指将不同传感器获得的同一景物的图像或同一传感器在不同时刻获得的同一景物的图像, 经过相应处理后, 再运用某种融合技术得到一幅合成图像的过程。多幅图像融合可克服单一传感器图像在几何、光谱和空间分辨率等方面存在的局限性和差异性, 提高图像的质量, 从而有利于对物理现象和事件进行定位、识别和解释。与单源遥感图像相比, 多源遥感图像所提供的信息具有冗余性、互补性和合作性。因此,将多源遥感图像各自的优势结合应用, 获得对环境正确的解译是极为重要的。多源遥感图像融合则是富集这些多种传感器遥感信息的最有效途径之一,是现代多源数据处理和分析中非常重要的一步。本文基于遥感图像融合的研究现状、分析了图像融合研究的困境和不足, 最后提出了未来的发展趋势和热点, 以期达到抛砖引玉的作用。 2 遥感图像融合研究现状 随着信息科学技术的发展, 在20 世纪七八十年代诞生了一个称为数据融合的全新概念。这一概念不断扩展, 处理的对象由一般的数据发展到数字图像。1979 年, Daliy 等人首先将雷达图像和LandsatMSS 图像的复合图像应用于地质解译, 被认为是最早的图像

融合。20 世纪80 年代, 图像融合技术逐渐应用到遥感图像的分析和处理中。90年代以后, 图像融合技术成为研究的热点, 并成为很多遥感图像应用的一个重要预处理环节。目前, 遥感图像融合已经发展为像素级、特征级和决策级3个层次, 如表1。需要指出的是, 融合层次并没有划分融合算法严格的界限, 因为本质上各个融合层次都是信息融合的范畴。像素级图像融合技术已被广泛研究和应用, 并取得了一定的成果。特征级融合是一种中等层次的信息融合, 利用从各个传感器图像的原始信息中提取的特征信息,进行综合分析及融合处理, 不仅增加从图像中提取特征信息的可能性, 还可能获取一些有用的复合特征, 尤其是边缘、角、纹理、相似亮度区域、相似景深区等。在特征级融合中, 对图像配准的要求不如像素级图像融合对配准要求那么严格。决策级图像融合是一种更高层次的信息融合, 其结果将为各种控制或决策提供依据。在进行融合处理前, 先对图像进行预处理、特征提取、识别或判决, 建立对同一目标的初步判决和结论, 然后对各个图像的决策进行相关处理, 最后进行决策级的融合。从特点来看,不同层次的融合各有优缺点, 难以在信息量和算法效率方面都同时满足需求。 表一:遥感图像融合三个层次的对比 融合层次融合算法特点

浅析多源遥感数据融合原理及应用

浅析多源遥感数据融合原理 摘要: 本文介绍了遥感影像融合技术, 系统阐述了几种常见的遥感影像融合方法及其优缺点。首先,阐述了多源遥感影像数据融合的目的、意义以及多源遥感影像数据融合的基本理论;然后介绍了多源遥感影像数据融合的层次和常用方法,在分析和探讨多源遥感影像数据融合原理、层次、结构及特点的基础上,归纳了多源遥感影像数据融合方法,然后通过实验,对不同方法融合后的成果图进行比较,每种方法都有其自身的优点和不足之处,这就决定了它们在应用方面的不同,采用乘积方法变换、Brovey比值变换和PCA变换融合方法融合后的图像,其光谱保真程度逐渐降低.Muhiplieative(乘积)变换融合较好地保留了多光谱波段的光谱分辨率和空间信息,融合图像的光谱保真能力较好,详细程度较高;PCA变换融合和Brovey变换;融合和影像质量一般.与PCA变换融合比较,Brovey变换融合的空间信息的详细程度较低,但相对好的保留了多光谱波段的光谱分辨率。 关键词: 遥感影像融合融合层次融合方法优缺点对比

目录 1、绪论 (1) 2、多源遥感数据融合的基本理论 (1) 2.1 多源遥感数据融合的概念 (3) 2.2多源遥感数据融合的原理 (4) 2.3多源遥感数据融合层次 (4) 2.3.1 像元级融合 (4) 2.3.2 特征级融合 (4) 2.3.3 决策级融合 (5) 3、多源遥感数据融合常用方法 (5) 3.1 主成分变换(PCT) (5) 3.2 乘积变换 (5) 3.3 Brovey比值变换融合 (5) 4、实验与分析 (6) 5、结语 (8) 参考文献 (9) 致谢 (10)

遥感—— 影像融合

实验名称:影像融合 一、实验内容 1.对TM影像和SPOT影像进行HSV数据融合。 2.利用均值、标准差、特征值等参数对融合效果进行评价。 二、实验所用的仪器设备,包括所用到的数据 电脑一台,遥感影像处理软件(ENVI),英国伦敦的TM影像数据lon_tm和SPOT影像数据lon_spot。 三、实验原理 (一)影像融合 定义:图像(影像)融合是指将多源遥感图像按照一定的算法,在规定的地理坐标系中,生成新的图像的过程。 目的:1)提高图像空间分辨率;2)改善分类;3)多时相图像融合用于变化检测。 (二)HSV数据融合 HSV变换法的主要原理为:首先将多光谱图像经HSV变换得到H、S、V三个分量。然后将高分辨率的全色图像代替V分量,保持H、S分量不变。最后在进行HSV反变换得到具有高空间分辨率的多光谱图像。 (三)Brovey变换 Brovey融合也称为色彩正规化( color normalization)变换融合, 由美国学者Brovey推广而得名。其算法是将多光谱影像空间(multispectral image space)分解为色度和亮度成分, 并进行计算。其特点是简化了影像转换过程的系数, 以最大限度地保留多光谱数据的信息。Brovey融合法的表达式: 红色通道=R / (R +G +B ) ×1 绿色通道=G / (R +G +B ) ×1 蓝色通道=B / (R +G +B ) ×1 其中: R、G、B分别为多光谱影像的三个波段, I为高空间分辨率影像。 该方法对RGB图像和高分辨率数据进行数学合成,即RGB图像中的每一个波段都乘以高分辨率数据与RGB图像波段总和的比值。然后自动地用最近邻、双线性或三次卷积技术将3个RGB波段重采样到高分辨率像元尺寸。本方法也要求数据具有地理参考或者具有相同的尺寸大小。 (四)评价指标 (1)均值与标准方差 上述两个公式中,M、N为图像长宽像素个数,f(i, j)为i行j列图像灰度值。 (2)信息熵 对于灰度范围{0,1.…,L-1}的图像直方图,Pi为灰度值等于i的像素数与图像总像素数之比,L为灰度级总数,它表示了图像中纹理的非均匀程度或复杂程度。其中P(i)为灰度值为i的像素在

三种图像融合方法实际操作与分析

摘要:介绍了遥感影像三种常用的图像融合方式。进行实验,对一幅具有高分辨率的SPOT全色黑白图像与一幅具有多光谱信息的SPOT图像进行融合处理,生成一幅既有高分辨率又有多光谱信息的图像,简要分析比较三种图像融合方式的各自特点,择出本次实验的最佳融合方式。 关键字:遥感影像;图像融合;主成分变换;乘积变换;比值变换;ERDAS IMAGINE 1. 引言 由于技术条件的限制和工作原理的不同,任何来自单一传感器的信息都只能反映目标的某一个或几个方面的特征,而不能反应出全部特征。因此,与单源遥感影像数据相比,多源遥感影像数据既具有重要的互补性,也存在冗余性。为了能更准确地识别目标,必须把各具特色的多源遥感数据相互结合起来,利用融合技术,针对性地去除无用信息,消除冗余,大幅度减少数据处理量,提高数据处理效率;同时,必须将海量多源数据中的有用信息集中起来,融合在一起,从多源数据中提取比单源数据更丰富、更可靠、更有用的信息,进行各种信息特征的互补,发挥各自的优势,充分发挥遥感技术的作用。[1] 在多源遥感图像融合中,针对同一对象不同的融合方法可以得到不同的融合结果,即可以得到不同的融合图像。高空间分辨率遥感影像和高光谱遥感影像的融合旨在生成具有高空间分辨率和高光谱分辨率特性的遥感影像,融合方法的选择取决于融合影像的应用,但迄今还没有普适的融合算法能够满足所有的应用目的,这也意味着融合影像质量评价应该与具体应用相联系。[2] 此次融合操作实验是用三种不同的融合方式(主成分变换融合,乘积变换融合,比值变换融合),对一幅具有高分辨率的SPOT全色黑白图像与一幅具有多

光谱信息的SPOT图像进行融合处理,生成一幅既有高分辨率又有多光谱信息的图像。 2. 源文件 1 、 imagerycolor.tif ,SPOT图像,分辨率10米,有红、绿、两个红外共四个波段。 2 、imagery-5m.tif ,SPOT图像,分辨率5米。 3. 软件选择 在常用的四种遥感图像处理软件中,PCI适合用于影像制图,ENVI在针对像元处理的信息提取中功能最强大,ER Mapper对于处理高分辨率影像效果较好,而ERDAS IMAGINE的数据融合效果最好。[3] ERDAS IMAGINE是美国Leica公司开发的遥感图像处理系统。它以其先进的图像处理技术,友好、灵活的用户界面和操作方式,面向广阔应用领域的产品模块,服务于不同层次用户的模型开发工具以及高度的RS/GIS(遥感图像处理和地理信息系统)集成功能,为遥感及相关应用领域的用户提供了内容丰富而功能强大的图像处理工具。 2012年5月1日,鹰图发布最新版本的ERDAS IMAGINE,所有ERDAS 2011软件用户都可以从官方网站上下载最新版本 ERDAS IMAGINE 11.0.5. 新版本包括之前2011服务包的一些改变。相比之前的版本,新版本增加了更多ERDAS IMAGINE和GeoMedia之间的在线联接、提供了更为丰富的图像和GIS产品。用户使用一个单一的产品,就可以轻易地把两个产品结合起来构建一个更大、更清

像素级和特征级遥感图像融合方法研究与应用

像素级和特征级遥感图像融合方法研究与应用传感器技术的发展丰富了人类获取信息的手段,而遥感在今天已成为人类获取地面信息的最重要的方式之一。卫星遥感系统为对地观测和地球科学相关领域研究提供的遥感图像数据,类型多样同时包含了丰富的信息。 如何利用图像融合技术,对不同来源不同类型的遥感图像数据进行综合利用,准确而高效地提取图像中包含的有用信息,已成为遥感技术应用中的一个关键性问题。针对这一问题,本文展开了对遥感图像融合方法和相关理论的研究。 本文的研究工作主要包含以下三个方面的内容:1、提出一种用于实现多光谱遥感图像分辨率增强的全色锐化图像融合方法。像素级的图像融合方法以提升图像数据质量为目标,而空间分辨率则是遥感图像质量的一个重要指标。 传感器捕获辐射能量有限以及观测受到噪声信号干扰的客观条件限制,使得遥感图像的空间分辨率和光谱分辨率成为一对天然的矛盾。利用全色锐化图像融合技术,对具有高空间分辨率的全色图像和具有高光谱分辨率的多光谱图像进行融合,则可以得到同时具有高空间分辨率和高光谱分辨率的合成图像。 为得到高质量的全色锐化融合结果,本文对多光谱图像数据和全色图像数据进行线性回归,并基于标准正交变换设计一种颜色空间变换,在此基础上将成分替换与多分辨率分析的思想相结合,完成对融合方法的构造。研究中通过对比实验,验证了该融合方法性能上的优越性。 2、提出一种用于实现热红外遥感图像分辨率增强的热红外锐化图像融合方法。热红外图像提供的地表温度信息,在遥感量化分析的应用中十分关键。 热红外锐化主要通过热红外图像和可见光近红外图像间的像素级融合实现,由于热红外图像与可见光近红外图像具有不同的成像性质,使得一般的像素级图

卡尔曼滤波数据融合算法

/********************************************************* // 卡尔曼滤波 //********************************************************* //在程序中利用Angle+=(Gyro - Q_bias) * dt计算出陀螺仪积分出的角度,其中Q_bias是陀螺仪偏差。 //此时利用陀螺仪积分求出的Angle相当于系统的估计值,得到系统的观测方程;而加速度计检测的角度Accel相当于系统中的测量值,得到系统状态方程。 //程序中Q_angle和Q_gyro分别表示系统对加速度计及陀螺仪的信任度。根据Pdot = A*P + P*A' + Q_angle计算出先验估计协方差的微分,用于将当前估计值进行线性化处理。其中A 为雅克比矩阵。 //随后计算系统预测角度的协方差矩阵P。计算估计值Accel与预测值Angle间的误差Angle_err。 //计算卡尔曼增益K_0,K_1,K_0用于最优估计值,K_1用于计算最优估计值的偏差并更新协方差矩阵P。 //通过卡尔曼增益计算出最优估计值Angle及预测值偏差Q_bias,此时得到最优角度值Angle 及角度值。 //Kalman滤波,20MHz的处理时间约0.77ms; void Kalman_Filter(float Accel,float Gyro) { Angle+=(Gyro - Q_bias) * dt; //先验估计 Pdot[0]=Q_angle - PP[0][1] - PP[1][0]; // Pk-先验估计误差协方差的微分 Pdot[1]=- PP[1][1]; Pdot[2]=- PP[1][1]; Pdot[3]=Q_gyro; PP[0][0] += Pdot[0] * dt; // Pk-先验估计误差协方差微分的积分 PP[0][1] += Pdot[1] * dt; // =先验估计误差协方差 PP[1][0] += Pdot[2] * dt; PP[1][1] += Pdot[3] * dt; Angle_err = Accel - Angle; //zk-先验估计 PCt_0 = C_0 * PP[0][0]; PCt_1 = C_0 * PP[1][0]; E = R_angle + C_0 * PCt_0; K_0 = PCt_0 / E;

遥感卫星数据处理知识详解

北京揽宇方圆信息技术有限公司 遥感卫星数据处理知识详解 遥感技术自20世纪60年代兴起以来,被应用于各种传感仪器对电磁辐射信息的收集、处理,并最后成像。遥感信息通常以图像的形式出现,故这种处理也称遥感图像信息处理。 那对遥感图像处理可以达到什么目的呢? ①消除各种辐射畸变和几何畸变,使经过处理后的图像能更真实地表现原景物真实面貌; ②利用增强技术突出景物的某些光谱和空间特征,使之易于与其它地物的K 分和判释; ③进一步理解、分析和判别经过处理后的图像,提取所需要的专题信息。遥感信息处理分为模拟处理和数字处理两类(见数据釆集和处理)。 遥感数据处理过程 多谱段遥感信息的处理过程是: ①数据管理:地面台站接收的原始信息经过摄影处理、变换、数字化后被转换成为正片或计算机兼容的磁带,将得到的照片装订成册,并编目提供用户选用。 ②预处理:利用处理设备对遥感图像的几何形状和位置误差、图像辐射强度信息误差等系统误差进行几何校正和辐射校正。 ③精处理:消除遥感平台随机姿态误差和扫描速度误差引起的几何畸变,称为几何精校正;消除因不同谱段的光线通过大气层时受到不同散射而引起的畸变,称为大气校正。

④信息提取:按用户要求进行多谱段分类、相关掩模、假彩色合成、图像增 强、密度分割等。 ⑤信息综合:将地面实况调查与不同高度、不同谱段遥感获得的信息综合编 辑,并绘制成各种专题图。 遥感信息处理方法和模型越来越科学,神经网络、小波、分形、认知模型、地学专家知识以及影像处理系统的集成等信息模型和技术,会大大提高多源遥感技术的融合、分类识别以及提取的精度和可靠性。统计分类、模糊技术、专家知识和神经网络分类有机结合构成一个复合的分类器,大大提高分类的精度和类数。多平台、多层面、多传感器、多时相、多光谱、多角度以及多空间分辨率的融合与复合应用,是目前遥感技术的重要发展方向。不确定性遥感信息模型和人工智能决策支持系统的开发应用也有待进一步研究。 多源遥感数据融合 遥感数据融合技术旨在整合不同空间和光谱分辨率的信息来生产比单一数据包含更多细节的融合数据,这些数据来自于安放在卫星、飞行器和地面平台上的传感器。融合技术已成功应用于空间和地球观测领域,计算机视觉,医学影像分析和防卫安全等众多领域。 遥感数据处理的发展趋势 遥感技术正在进入一个能够快速准确地提供多种对地观测海量数据及应用研究的新阶段,它在近一二十年内得到了飞速发展,目前又将达到一个新的高潮。 这种发展主要表现在以下4个方面: 1. 1.多分辨率多遥感平台并存 2. 空间分辨率、时间分辨率及光谱分辨率普遍提高。目前,国际上已拥有十几种不同用途的地球观测卫星系统,并拥有全色0.8~5m、多光谱3.3~30m 的多种空间分辨率。随着遥感应用领域对高分辨率遥感数据需求的增加及高新技术自身不断的发展,各类遥感分辨率的提高成为普遍发展趋势。 1. 2.微波遥感、高光谱遥感迅速发展 2. 微波遥感技术是近十几年发展起来的具有良好应用前景的主动式探测方法。 微波具有穿透性强、不受天气影响的特性,可全天时、全天候工作。微波遥感采用多极化、多波段及多工作模式,形成多级分辨率影像序列,以提供从粗到细的对地观测数据源。成像雷达、激光雷达等的发展,越来越引起人们

相关文档
最新文档