• 智能化指挥控制理论与技术
21年品牌 40万+商家 超1.5亿件商品

智能化指挥控制理论与技术

①全新正版,现货速发,7天无理由退换货②天津、成都、无锡、广东等多仓就近发货,订单最迟48小时内发出③无法指定快递④可开电子发票,不清楚的请咨询客服。

83.71 5.7折 148 全新

库存2件

浙江嘉兴
认证卖家担保交易快速发货售后保障

作者曹雷

出版社国防工业

ISBN9787118132687

出版时间2024-04

装帧其他

开本其他

定价148元

货号32125228

上书时间2024-10-15

倒爷图书专营店

三年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介
曹雷,毕业于华中科技大学计算机应用专业,陆军工程大学教授、博导,军队指挥学学科带头人,中国指控学会常务理事。长期从事指挥控制理论与技术、智能化指挥控制、作战仿真等领域教学和科研工作。先后主持和参与多项全军重大科研项目,多次参与全军重大演训活动。

目录
第一篇 指挥控制理论第 1 章 从军队指挥到指挥控制1.1 军队指挥1.1.1 军队指挥导论1.1.2 军队指挥学1.2 指挥控制 1.2.1 指挥控制导论1.2.2 指挥艺术与控制科学 1.2.3 指挥控制与指挥控制系统 1.3 指挥控制理论 第 2 章 指挥控制基本理论2.1 指挥控制科学基础 2.1.1 “老三论”2.1.2 复杂性科学2.1.3 “新三论”2.2 指挥控制模型 2.2.1 指挥控制过程模型2.2.2 指挥控制概念模型2.3 指挥控制方法 2.3.1 指挥控制方法空间2.3.2 指挥控制成熟度 2.4 指挥控制敏捷性2.4.1 基本概念2.4.2 指挥控制敏捷性组成要素 第 3 章 指挥控制作战理论3.1 网络中心战3.1.1 平台中心战3.1.2 CEC系统3.1.3 网络中心战概念3.2 赛博战3.2.1 赛博空间3.2.2 赛博战3.2.3 赛博战特点 3.2.4 赛博战与信息战 3.3 多域战 3.3.1 多域战:多域战斗与多域作战 3.3.2 联合全域作战:联合全域作战指挥控制系统 3.4 马赛克战 3.4.1 马赛克战提出背景 3.4.2 马赛克战概念 3.4.3 兵力设计与指挥控制过程 第 4 章 智能化指挥控制 4.1 指挥控制的智能化发展 4.1.1 指挥控制发展规律 4.1.2 人工智能的突破 4.1.3 从信息优势到决策优势 4.1.4 智能化指挥控制应用场景 4.2 智能化指挥控制与任务规划 4.2.1 作战筹划与任务规划 4.2.2 美军的任务规划概念 4.2.3 任务规划的本质 4.3 智能化指挥控制与仿真推演 4.3.1 基于计算机技术的作战仿真推演 4.3.2 基于手工兵棋的兵棋推演 4.3.3 作战仿真与手工兵棋 第二篇 机器学习基础 第 5 章 机器学习基础 5.1 机器学习概述 5.1.1 从统计分析开始 5.1.2 什么是机器学习 5.1.3 学习情境(学习分类) 5.2 基于符号的机器学习 5.2.1 K-邻近算法 5.2.2 决策树学习 5.2.3 支持向量机 5.3 遗传算法 5.3.1 进化论与遗传算法 5.3.2 遗传算法基本思想 5.3.3 解空间搜索 5.4 深度学习 参考文献 第 6 章 深度学习基础 6.1 神经元与神经网络 6.1.1 大脑学习模式 6.1.2 神经网络的基本定义 6.1.3 感知器学习 6.1.4 神经网络的构造方法 6.2 深度学习的基本概念 6.2.1 浅层学习与深度学习 6.2.2 深度学习和神经网络 6.2.3 神经网络的训练过程 6.3 深度学习的基本方法 6.3.1 学习和重构 6.3.2 深度信念网络 6.3.3 卷积神经网络 6.3.4 循环神经网络 第 7 章 强化学习基础理论与方法 7.1 强化学习导论 7.1.1 强化学习基本概念 7.1.2 单步强化学习模型 7.1.3 马尔可夫决策过程 7.2 有模型强化学习 7.2.1 值函数 7.2.2 Bellman方程 7.2.3 策略迭代 7.2.4 值迭代 7.3 无模型强化学习 7.3.1 蒙特卡洛法 7.3.2 时序差分法 7.4 深度强化学习 7.4.1 基于表格的值函数表示 7.4.2 基于深度神经网络的值函数表示 7.4.3 深度Q网络 7.5 策略梯度强化学习 7.5.1 策略梯度法 7.5.2 Actor-Critic算法框架 7.5.3 信赖域策略优化(TRPO) 7.5.4 近端策略优化(PPO) 7.5.5 确定性策略梯度(DPG) 第 8 章 多智能体强化学习 8.1 引言 8.2 多智能体强化学习 8.3 多智能体深度强化学习及其经典方法 8.3.1 无关联型方法 8.3.2 通信规则型方法 8.3.3 互相协作型方法 8.3.4 建模学习型方法 8.4 多智能体深度强化学习的关键问题 8.4.1 环境的非平稳性问题 8.4.2 非完全观测问题 8.4.3 多智能体环境训练模式问题 8.4.4 过拟合问题 8.4.5 多智能体信度分配问题 8.5 多智能体博弈强化学习及博弈基本概念 8.5.1 博弈强化学习关键技术问题 8.5.2 多智能体博弈基本概念 8.6 多智能体博弈强化学习经典方法介绍 8.6.1 标准型博弈 8.6.2 扩展式博弈 8.7 多智能体博弈强化学习均衡建模与求解方法 8.7.1 多智能体博弈均衡建模 8.7.2 元均衡博弈强化学习算法 8.7.3 结论 参考文献 第三篇 知识驱动的强化学习 第 9 章 基于知识的学习型智能生成机制分析 9.1 强化学习中的知识 9.2 基于知识的强化学习 9.2.1 专家在线指导(TAMER框架) 9.2.2 回报函数设计 9.2.3 启发式探索策略 9.2.4 模仿学习 9.3 知识与数据驱动的强化学习智能决策模型设计 9.4 基于知识的深度强化学习方法研究进展 参考文献: 第 10 章 逆向强化学习 10.1 逆向强化学习基础算法介绍 10.1.1 学徒学习方法 10.1.2 最大边际规划算法 10.1.3 结构化分类方法 10.1.4 基于概率模型形式化方法 10.2 深度逆向强化学习研究进展 10.2.1 基于最大边际法的深度逆向强化学习 10.2.2 基于深度Q网络的深度学徒学习 10.2.3 基于最大熵模型的深度逆向强化学习 10.2.4 从非专家示例轨迹中进行逆向强化学习 10.3 深度逆向强化学习应用分析 参考文献 第 11 章 元强化学习(徐志雄) 11.1 从深度强化学习到元深度强化学习 11.1.1 深度强化学习方法面临的难题 11.1.2 面向深度强化学习的元学习方法 11.2 元深度强化学习理论 11.2.1 基本概念 11.2.2 元深度强化学习方法研究现状 11.3 元深度强化学习经典方法介绍 11.3.1 基于元参数学习的元深度强化学习方法 11.3.2 基于网络模型的元深度强化学习方法 11.3.3 基于分层的元深度强化学习方法 11.3.4 基于梯度的元深度强化学习方法 11.3.5 元深度强化学习方法比较 第 12 章 深度强化学习中的知识迁移方法 12.1 深度强化学习中的知识 12.1.1 神经网络初始化 12.1.2 状态初始化 12.1.3 探索与利用 12.1.4 经验缓存回放 12.1.5 回报函数设计 12.2 深度强化学习中的知识迁移方法 12.2.1 MDP知识迁移 12.2.2 状态知识迁移 12.2.3 奖励知识迁移 12.2.4 策略知识迁移 12.2.5 特征知识迁移 12.3 深度强化学习中的知识迁移方法研究进展12.4 结论 参考文献 第四篇 智能化指挥控制技术与实践 第 13 章 强化学习训练平台 13.1 星际争霸训练环境 13.1.1 SC2LE 13.1.2 SMAC 13.2 MacA环境 13.3 庙算?智胜即时策略智能对抗平台 13.3.1 训练模式 13.3.2 复盘系统 13.4 “墨子”联合作战智能体开发平台 13.4.1 平台构成 13.4.2 开发模式 13.5 基于Unity-MLAgent 自研智能仿真平台 13.5.1 Unity ML-Agents的结构13.5.2 ML-Agents训练方式 13.5.3 深度强化学习算法 13.5.4 开发流程 第 14 章 即时战略游戏智能技术分析 14.1 虚拟自我对弈学习 14.1.1 神经虚拟自我对弈 14.1.2 基于智能群组优化的虚拟自我博弈对抗 14.2 分层深度强化学习 14.2.1 分层深度强化学习在即时策略游戏中的应用 14.2.2 子策略共享分层方法 14.2.3 无监督分层方法 14.2.4 多层结构分层方法 14.3 课程学习 14.3.1 基于网络优化的课程迁移学习 14.3.2 基于多智能体合作的课程学习 14.3.3 基于功能函数的课程学习 14.4 分布式深度强化学习 14.4.1 IMPALA 14.4.2 SEED RL 14.4.3 ACME 14.5 训练策略 14.5.1 模仿学习 14.5.2 训练联盟 第 15 章 智能博弈对抗 15.1 智能博弈对抗概念内涵 15.2 发展需求分析 15.3 概念内涵 15.4 博弈对抗技术发展 15.4.1 基于博弈论的方法 15.4.2 基于规划理论的方法 15.4.3 专家系统和机器学习方法 15.5 智能博弈对抗关键技术 15.5.1 博弈对抗规则建模技术 15.5.2 博弈对抗策略机器学习优化技术15.5.3 博弈对抗AI算法模型验证评价技术15.5.4 大样本并行仿真推演技术和柔性集成平台接口设计15.6 军事智能博弈对抗案例分析15.6.1 基于Unity的2对2空战博弈对抗案例 15.6.2 星际争霸小场景对抗案例分析参考文献第 16 章 智能作战筹划16.1 作战筹划主要任务及时代需求16.2 任务理解16.2.1 作战标准体系16.2.2 作战任务知识化表示16.2.3 基于知识库的作战任务理解16.3 态势分析16.3.1 目标识别16.3.2 多源信息融合16.3.3 图像识别对抗技术16.3.4 作战意图识别16.3.5 基于强化学习的对抗意图识别16.3.6 态势认知16.4 定下决心16.4.1 目标价值分析16.4.2 威胁评估16.5 制定方案16.5.1 多智能体模拟对抗16.6 形成计划16.6.1 目标识别问题概述16.6.2 基于统计的图像识别16.6.3 基于深度学习的图像识别16.6.4 多源信息融合16.6.5 图像识别对抗技术16.7 任务规划16.7.1 基于层次任务网的行动序列规划方法16.7.2 基于马尔科夫决策模型的序列规划方法16.7.3 经典规划方法16.7.4 军事任务规划系统研究现状参考文献第 17 章 挑战与应对策略17.1 智能化指挥控制面对的挑战17.2 应对策略17.3 美军应对策略的两个案例17.3.1 探索机器辅助指挥控制的可行性与效用17.3.2 识别和开发人工智能应用的分析框架参考文献

内容摘要
本书分指挥控制理论、强化学习基础、知识驱动的强化学习、智能化指挥控制技术与实践四个篇章共17章,系统阐述了指挥控制的理论体系、指挥控制基本理论、指挥控制作战理论以及学术争议问题,深入介绍了机器学习基础、深度强化学习基础理论以及多智能体强化学习等深度强化学习基础理论与技术,以及逆向强化学习、元强化学习、博弈强化学习等前沿技术及课题组近几年的研究成果,最后论述了深度强化学习在指挥控制中的运用与实践问题,并论述了智能化指挥控制面临的现实挑战与应对策略。

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP