• 基于深度学习的高分辨率遥感图像场景分类
图书条目标准图
21年品牌 40万+商家 超1.5亿件商品

基于深度学习的高分辨率遥感图像场景分类

60.37 6.1折 99 全新

库存9件

山东泰安
认证卖家担保交易快速发货售后保障

作者钱晓亮

出版社电子工业出版社

出版时间2022-04

版次1

装帧其他

货号R7库 10-21

上书时间2024-10-21

齐鲁淘宝书店

十四年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
图书标准信息
  • 作者 钱晓亮
  • 出版社 电子工业出版社
  • 出版时间 2022-04
  • 版次 1
  • ISBN 9787121411526
  • 定价 99.00元
  • 装帧 其他
  • 开本 其他
  • 纸张 胶版纸
  • 页数 140页
  • 字数 126千字
【内容简介】
高分辨率遥感图像场景分类是遥感影像解译中的一个关键任务,具有广泛的应用前景。本书介绍了高分辨率遥感图像场景分类的基本知识和现有的研究方法,并系统总结了作者在基于深度学习的高分辨率遥感图像场景分类方面的研究工作。全书共6章,分为4个部分:部分(第1章)介绍了高分辨率遥感图像场景分类的的定义、研究背景和现有研究工作,以及本书的主要内容;第二部分(第2章-3章)将特征提取策略和监督方式对高分辨率遥感图像场景分类性能的影响进行了定性分析和定量实验评估;第三部分(第4章-5章)介绍了两种不同解决思路的高分辨率遥感图像场景分类方法来应对人工标注成本较高的问题;第四部分(第6章)对本书的主要内容进行总结,并对未来的研究工作进行展望。第2-5章都附有相关的实验验证工作,以便有兴趣的读者进一步钻研探索。
【作者简介】
钱晓亮,男,副教授,硕士生导师,2013年毕业于西北工业大学自动化学院,获工学博士学位,目前在郑州轻工业大学电气信息工程学院工作。主要研究方向为人工智能,高分遥感图像解译,机器视觉检测。主持国家自然科学基金面上项目、青年科学基金项目,河南省科技攻关项目,河南省高等学校重点科研项目等多项纵向科研项目,主持企业委托的横向项目3项,到账金额300余万元。获河南省教育厅科技成果奖一等奖、河南省科技进步二等奖和三等奖各1项。作为/通讯作者发表学术论文24篇,其中SCI论文11篇,EI论文10篇,中文核心论文3篇。授权发明专利18项,其中发明人8项,第二发明人4项。目前是IEEE、中国自动化学会、中国计算机学会、中国图象图形学会的会员。担任IEEE TGRS, IEEE JSTARS, IEEE SPL, Artificial Intelligence Review,Neurocomputing等10余本国际SCI期刊,以及遥感学报、吉林大学学报(工学版)、工程科学学报等国内优秀EI源期刊的审稿专家。
【目录】
第1章  绪论1

1.1  引言1

1.2  国内外研究现状3

1.3  本书的主要内容6

1.3.1  研究动机6

1.3.2  研究内容7

1.4  本书的章节安排10

第2章  特征提取策略对场景分类性能影响的评估11

2.1  高分辨率遥感图像场景分类方法特征提取策略总结11

2.2  特征提取策略对场景分类性能影响的定性评估15

2.2.1  手工特征对场景分类性能影响的定性评估16

2.2.2  数据驱动特征对场景分类性能影响的定性评估16

2.2.3  手工特征和数据驱动特征的定性对比17

2.3  特征提取策略对场景分类性能影响的定量评估18

2.3.1  实验设置18

2.3.2  定量评估结果24

2.3.3  定量评估结果分析41

2.3.4  主要数据集的复杂度对比42

2.4  本章小结43

第3章  监督方法对场景分类性能影响的评估44

3.1  定性评估44

3.2  定量评估45

3.2.1  实验设置45

3.2.2  定量评估结果45

3.2.3  定量评估结果分析49

3.3  本章小结51

第4章  自动扩充标注样本对场景分类性能的提升52

4.1  伪样本生成52

4.1.1  总体架构53

4.1.2  伪样本生成过程54

4.2  一种新的伪样本筛选定量指标59

4.3  自动标注样本的融合61

4.4  场景分类主干网络的选取62

4.5  融合Focal Loss的深度场景分类网络64

4.5.1  传统交叉熵损失函数64

4.5.2  Focal Loss损失函数66

4.6  实验验证67

4.6.1  实验设置67

4.6.2  伪样本筛选定量指标的有效性验证68

4.6.3  融合扩充标注样本和Focal Loss的有效性验证69

4.6.4  流行算法对比71

4.7  本章小结78

第5章  基于EMGAN的半监督场景分类80

5.1  EMGAN模型的设计80

5.1.1  总体架构81

5.1.2  判别器模型设计82

5.1.3  生成器模型设计85

5.2  EMGAN模型的训练87

5.2.1  判别器的损失函数87

5.2.2  生成器的损失函数89

5.2.3  训练模式91

5.3  基于融合深度特征的场景分类91

5.3.1  基于EMGAN的特征提取92

5.3.2  基于CNN的特征提取93

5.3.3  特征编码95

5.3.4  特征融合及分类98

5.4  实验验证98

5.4.1  场景分类精度的有效性验证99

5.4.2  EMGAN生成图像多样性的有效性验证109

5.5  本章小结112

第6章  总结与展望114

6.1  本书研究工作总结114

6.2  未来研究工作展望116

参考文献118
点击展开 点击收起

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP