多聚焦图像像素级融合算法研究
全新正版 假一赔十 可开发票
¥
49.15
7.2折
¥
68
全新
库存4件
作者张永新 著
出版社科学出版社
ISBN9787030534941
出版时间2017-06
装帧平装
开本其他
定价68元
货号1201531131
上书时间2024-12-28
商品详情
- 品相描述:全新
- 商品描述
-
作者简介
张永新,男,1980年,河南洛阳人,博士,副教授,河南省高校科技创新人才,河南省智慧旅游产业技术创新联盟负责人。主讲《数据结构》《算法设计与分析》《软件测试》等课程。主持同家自然科学基金青年科学基金项目1项,河南省科技攻关项目2项,参与政府问靠前科技创新合作重点专项1项、省部级项目4项,获得授权同家发明专利2项,软件著作权2项。三年来发表论文14篇,其中scI检索论文5篇,EI检索论文9篇。为Signal Processing,Neuro Computing,Optik和JOSA等国 际SCI期刊审稿人。
目录
前言
第1章 绪论 1
1.1 研究的背景和意义 1
1.2 多聚焦图像融合的层次划分 3
1.3 多聚焦图像像素级融合算法 5
1.3.1 空间域多聚焦图像融合算法 6
1.3.2 变换域多聚焦图像融合算法 12
1.4 多聚焦图像融合质量评价 16
1.4.1 融合图像质量主观评价 17
1.4.2 融合图像质量客观评价 18
1.5 本书主要研究内容 21
1.6 本书的结构安排 22
第2章 基于RPCA与PCNN的多聚焦图像融合算法 24
2.1 引言 24
2.2 RPCA分解模型 26
2.2.1 RPCA基本原理 27
2.2.2 RPCA图像分解模型 29
2.3 PCNN模型 32
2.3.1 PCNN神经元模型 32
2.3.2 PCNN图像处理模型 36
2.4 基于RPCA与PCNN的多聚焦图像融合 38
2.4.1 算法原理 38
2.4.2 融合规则 39
2.5 实验结果与分析 41
2.5.1 实验参数设置 42
2.5.2 实验结果 42
2.5.3 实验结果主观评价 47
2.5.4 实验结果客观评价 48
2.6 本章小结 49
第3章 基于RPCA与四叉树分解的多聚焦图像融合算法 50
3.1 引言 50
3.2 四叉树分解模型 52
3.2.1 图像区域分割与合并 52
3.2.2 区域一致性标准 54
3.2.3 四叉树分解基本原理 57
3.2.4 基于RPCA的四叉树分解模型 59
3.3 基于RPCA与四叉树分解的多聚焦图像融合 61
3.3.1 算法原理 61
3.3.2 融合规则 63
3.4 实验结果与分析 65
3.4.1 实验参数设置 65
3.4.2 实验结果 66
3.4.3 实验结果主观评价 70
3.4.4 实验结果客观评价 71
3.5 本章小结 72
第4章 基于图像分解的多聚焦图像多成分融合算法 74
4.1 引言 74
4.2 图像分解基本模型 76
4.2.1 ROF模型 77
4.2.2 VO模型 78
4.2.3 OSV模型 79
4.3 Split Bregman算法 80
4.3.1 Bregman迭代算法 80
4.3.2 Split Bregman算法 82
4.4 基于图像分解的多聚焦图像多成分融合 85
4.4.1 算法原理 85
4.4.2 融合规则 86
4.5 实验结果与分析 90
4.5.1 实验参数设置 90
4.5.2 实验结果 90
4.5.3 实验结果主观评价 94
4.5.4 实验结果客观评价 95
4.6 本章小结 96
第5章 基于NMF与聚焦区域检测的多聚焦图像融合算法 98
5.1 引言 98
5.2 NMF模型 100
5.2.1 NMF基本原理 101
5.2.2 NMF图像融合模型 102
5.3 聚焦区域检测 105
5.3.1 聚焦评价函数 106
5.3.2 基于差异图像特征的聚焦特性评价 108
5.4 基于NMF与聚焦区域检测的多聚焦图像融合 111
5.4.1 算法原理 111
5.4.2 融合规则 113
5.5 实验结果与分析 115
5.5.1 实验参数设置 115
5.5.2 实验结果 116
5.5.3 实验结果主观评价 120
5.5.4 实验结果客观评价 121
5.6 本书算法分析 122
5.6.1 本书算法主观评价 126
5.6.2 本书算法客观评价 126
5.7 本章小结 127
第6章 总结与展望 128
6.1 本书工作总结 128
6.2 本书创新之处 129
6.3 研究展望 131
参考文献 131
内容摘要
本书针对现有多聚焦图像像素级融合方法存在的不足,在空间域内对多聚焦图像像素级融合算法进行了深入研究,主要内容包括基于RPCA与PCNN的多聚焦图像融合算法、基于RPCA与四叉树分解的多聚焦图像融合算法、基于图像分解的多聚焦图像多成分融合算法、基于NMF与聚焦区域检测的多聚焦图像融合算法等。本书内容丰富、新颖,是一本值得学习研究的著作,可供相关人员参考使用。
精彩内容
**章 绪论
1.1 研究的背景和意义
随着电子技术、计算机技术和大规模集成电路技术的快速发展,传感器技术不断提高,并被广泛应用于军事和民用领域[1]。多个传感器协同工作大大增加了采集到的信息种类和数量,导致传统的单一传感器信息处理方法难以适用大数据处理[2,3]。多传感器信息融合正是针对单一传感器的信息处理问题发展起来的一种新的信息处理方法。该方法利用系统中多个传感器在空间和时间上的冗余互补进行多方面、多层次、多级别的综合处理,以获取更为丰富、准确和可靠的有效信息[4]。
多传感器图像融合(简称图像融合)是信息融合范畴内以图像信息为研究对象的研究领域,它是传感器、图像处理、信号处理、计算机和人工智能等多学科融合的交叉研究领域[5]。其基本原理是把来自不同类型传感器或来自同一传感器在不同时间或不同方式下所获取的某个场景的多幅图像进行配准,采用某种算法对其进行融合,得到一幅新的关于此场景的更为丰富、准确和可靠的图像,服了单一传感器图像在分辨率、几何以及光谱等方面的差异性和局限性,能更好地对事件或物理现象进行识别、理解和定位。1979年,Daily等首先把雷达图像和Landsat.MSS图像的复合图像应用于地质解释,其处理过程可以看作是*简单的图像融合。20世纪80年代初,图像融合技术被应用于遥感多光谱图像的分析与处理;20世纪80年代末,图像融合技术开始被应用于可见光图像、红外图像等一般图像处理。20世纪90年代以后,图像融合技术广泛应用于遥感图像处理、可见光图像处理、红外图像处理以及医学图像处理。但是在应用过程中,由于聚焦范围有限,光学传感器成像系统无法对场景中的所有物体都清晰成像。当物体位于成像系统的焦点上时,它在像平面上的成像是清晰的,而同一场景内,其他位置上的物体在像平面上的成像是模糊的[6,7]。虽然光学镜头成像技术的快速发展提高了成像系统的分辨率,却无法消除聚焦范围局限性对整体成像效果的影响,使得同一场景内的所有物体难以同时在像平面上清晰成像,不利于图像的准确分析和理解[6]。另外,分析相当数量的相似图像既浪费时间又浪费精力[7],也会造成存储空间上的浪费。如何能够得到一幅同一场景中所有物体都清晰的图像,使其更加全面、真实的反映场景信息对于图像的准确分析和理解具有重要意义。
多聚焦图像融合作为多源图像融合的一个重要分支,是解决成像系统聚焦范围局限性问题的有效方法[8]。该方法主要用于同一光学传感器在相同成像条件下获取的聚焦目标不同的多幅图像的融合处理,对经过配准的关于某场景的不同物体的多幅聚焦图像,采用某种融合算法分别提取这些多聚焦图像的清晰区域,将其合成为一幅该场景中所有物体都清晰的融合图像[911]。多聚焦图像融合技术使不同成像距离上的物体能够清晰地呈现在一幅图像中,为特征提取、目标识别与追踪等奠定了良好的基础,从而有效地提高了图像信息的利用率和系统的可靠性,扩展了时空范围,降低了不确定性[10]。在遥感技术[12,13]、医疗成像[1416]、军事作战以及安全监控等领域有着广泛的应用价值[1719]。
本书将对多聚焦图像像素级融合的相关技术进行研究,研究得到国家科技支撑计划课题“盛唐文化全息虚拟成像协同实景展示系统集成与应用”(2013BAH49F03)的支持。
1.2 多聚焦图像融合的层次划分
根据多聚焦图像融合处理所处的阶段,可将多聚焦图像融合分为三个层次:像素级图像融合、特征级图像融合和决策级图像融合[20]。
像素级图像融合过程如图1.1所示,该层次的图像融合直接在原始图像的灰度数据上采用合适的融合算法进行融合处理,主要目的是图像增强、图像分割和图像分类[2123]。像素级图像融合是其他层次图像融合的基础,也是目前图像融合领域研究的热点。与其他层次图像融合相比,像素级图像融合可以*大程度程度的保持源图像的原始信息,获取更加丰富、准确和可靠的图像细节信息,融合的准确性*高。但这些优势都是以时间为代价的,由于对源图像的配准精度要求较高,在融合过程中需要处理大量的图像细节信息,处理时间相对较长,难以实现实时处理。此外,像素级图像融合对硬件设备的要求很高。
图1.1 像素级图像融合过程
特征级图像融合过程如图1.2所示,该层次的图像融合对源图像进行特征提取,将提取的特征信息(如棱角、纹理、线条和边缘等)转化为特征矢量,对特征矢量进行融合处理,为决策级融合做准备[2426]。特征级图像融合属于中间层次的图像融合,在融合过程中保留了足够的显著信息,可对图像信息进行大幅度压缩,易于实时处理,可*大程度限度地提供决策分析所需要的特征信息。但由于融合过程中大幅度的信息压缩,易造成有用信息丢失。特征级图像融合常用方法有主成分分析、神经网络、聚类分析和贝叶斯估计等,主要用于图像分割和目标检测等[17]。
图1.2 特征级图像融合过程
决策级图像融合过程如图1.3所示,该层次的图像融合对多传感器获取的同一场景的不同成像特征进行分类与识别,按照多传感器图像各自的独立决策以及每个决策的可信度进行图像融合处理,其融合结果可直接为决策者提供参考依据[2729]。决策级融合属于更高层次的图像融合,在融合过程中处理的对象为各种特征信息,具有较强的实时性、分析性和容错性。此外,决策级图像融合可以有效表示环境或目标等不同方面不同类型的信息,灵活性高,通信量小,具有较强的抗干扰能力。但其预处理代价较高,融合过程中原始图像信息损失较大,受限于决策者的需求,影响了推广应用的范围。常用方法有投票方法、统计方法、模糊逻辑方法和Dempster-Shafer推理方法等[2]。
图1.3 决策级图像融合过程
由于像素级图像融合在融合过程中信息丢失少,能够提供其他融合层次所不能提供的细节信息。其融合结果为图像,可使观察者更快捷、更直观和更全面地认识图像中的场景,有利于对图像的进一步分析、处理和理解[30,31]。像素级图像融合是当前图像融合领域研究*多的课题之一。为方便不同融合方法性能的对比和分析,本书仅对有两幅源图像的多聚焦图像进行仿真实验,实验源图像来自于标准多聚焦图像测试集[32,33]。
1.3 多聚焦图像像素级融合算法
根据多聚焦图像融合的特点以及后续图像处理的不同需求,一种好的融合算法应该遵守以下三个基本准则:
(1) 融合算法应能充分保留源图像中的显著特征信息,如边缘、纹理等信息;
(2) 融合算法应尽可能地减少引入无关信息或不一致信息,以免影响融合图像质量和融合图像的后续处理;
(3) 融合算法对源图像中的配准误差以及噪声应具有较强的鲁棒性。
目前大多数多聚焦图像融合算法都是在以上三个基本准则下设计的。多聚焦图像融合算法的关键是对聚焦区域特性做出准确评判,准确定位并提取出聚焦范围内的区域或像素,这也是多聚焦图像融合技术中至今尚未得到很好解决的问题之一。多年来,国内外学者针对多聚焦图像像素级融合过程中存在的聚焦区域的选择和提取问题,提出了许多性能优异的算法。这些算法主要分为两类[34]:空间域多聚焦图像融合算法和变换域多聚焦图像融合算法。其中,空间域图像融合算法在源图像的像素灰度空间上进行;变换域图像融合算法对源图像进行变换,根据融合规则对变换系数进行处理,将处理后的变换系数进行逆变换得到融合图像。多聚焦图像融合过程如图1.4所示。
图1.4 多聚焦图像融合过程
1.3.1 空间域多聚焦图像融合算法
空间域多聚焦图像融合算法是在像素灰度空间上实现的一种融合算法。该方法根据源图像中像素点的灰度值大小,利用不同的聚焦区域特性评价方法将聚焦区域的像素点或区域提取出来,根据融合规则得到融合图像。该算法的优点是方法简单,容易执行,计算复杂度低,融合图像包含源图像的原始信息。缺点是易受到噪声干扰,易产生“块效应”。
空间域多聚焦图像融合算法主要分为两类:基于像素点的融合算法和基于区域的融合算法。
基于像素点的融合算法主要包括加权系数法和邻域窗口法。加权系数法根据像素点灰度值的大小计算像素点的加权系数。Piella G[35]根据单个像素点灰度值的大小来计算加权系数。主成分分析法(Principal Component Analysis,PCA)[36]是加权平均融合方法的一种,它是一种较为常用的方法,该方法将图像按行优先或者列优先组成列向量,并计算协方差,根据协方差矩阵选取特征向量。在源图像相似时,该方法近似于均值融合;在源图像之间具有某些共有特征时,能够得到较好的融合效果;而在源图像之间的特征差异较大时,则容易在融合图
— 没有更多了 —
以下为对购买帮助不大的评价