• 机器人无标定手眼协调
  • 机器人无标定手眼协调
  • 机器人无标定手眼协调
  • 机器人无标定手眼协调
  • 机器人无标定手眼协调
  • 机器人无标定手眼协调
  • 机器人无标定手眼协调
  • 机器人无标定手眼协调
  • 机器人无标定手眼协调
  • 机器人无标定手眼协调
21年品牌 40万+商家 超1.5亿件商品

机器人无标定手眼协调

现货实物拍摄品相如图 内有部分划线或字迹

95 八五品

仅1件

北京昌平
认证卖家担保交易快速发货售后保障

作者苏剑波 著

出版社电子工业出版社

出版时间2010-08

版次1

装帧平装

货号K412

上书时间2024-09-16

贰手书屋

四年老店
已实名 进店 收藏店铺

   商品详情   

品相描述:八五品
图书标准信息
  • 作者 苏剑波 著
  • 出版社 电子工业出版社
  • 出版时间 2010-08
  • 版次 1
  • ISBN 9787121114342
  • 定价 39.00元
  • 装帧 平装
  • 开本 16开
  • 纸张 胶版纸
  • 页数 212页
  • 字数 323千字
【内容简介】
本书介绍机器人手眼关系无标定协调控制的研究成果,在总结已有工作的基础上,着重探索针对动态目标任务的手眼反馈控制策略。
【目录】
上篇Kalman滤波方法
第1章绪论
1.1引言
1.2机器人手眼协调
1.2.1手眼协调技术的历史发展
1.2.2手眼协调系统结构
1.3无标定手眼协调及其控制方法
1.3.1问题的提出
1.3.2传统的无标定方法
1.4本篇的主要工作
第2章基于图像雅可比矩阵的无标定手眼协调
2.1图像雅可比矩阵模型
2.2图像雅可比矩阵的例子
2.3应用图像雅可比矩阵建立视觉反馈控制
2.4基于图像雅可比矩阵的手眼协调系统的性能分析
2.5无标定环境下雅可比矩阵的辨识方法
第3章基于Kalman滤波的雅可比矩阵在线辨识
3.1图像雅可比矩阵的动态辨识
3.2Kalman滤波估计算法概述
3.3图像雅可比矩阵的在线Kalman滤波辨识
第4章眼固定+眼在手上的无标定二维运动跟踪
4.1系统与任务描述
4.2全局视觉的无标定手眼协调控制
4.2.1固定摄像机观察二维运动的图像雅可比矩阵
4.2.2固定眼图像雅可比矩阵的在线Kalman估计
4.2.3固定眼的视觉反馈控制
4.3眼在手上无标定视觉伺服
4.3.1手上摄像机的图像雅可比矩阵
4.3.2眼在手上图像雅可比矩阵的估计
4.3.3眼在手上的视觉反馈控制率
4.4两种反馈控制率的切换
4.5二维运动跟踪仿真
第5章固定双目无标定三维运动跟踪
5.1双目视觉的图像雅可比矩阵
5.2图像雅可比矩阵的在线Kalman.Bucv估计
5.3基于图像雅可比矩阵的反馈控制率
5.4三维运动跟踪仿真
第6章机器人手眼协调实验系统
6.1系统整体结构
6.2机器人本体
6.2.1机器人本体控制器
6.2.2机器人端控制程序
6.3机器人视觉子系统
6.3.1系统构成
6.3.2图像卡程序开发
6.3.3彩色图像处理
6.3.4图像预处理
6.3.5图像特征与目标识别
6.4通信子系统
6.4.1子系统结构与功能
6.4.2系统通信协议设计
6.4.3模块的具体实现
第7章无标定手眼协调运动跟踪实验
7.1眼固定+眼在手上无标定二维运动跟踪实验
7.2无标定三维运动跟踪实验
本篇小结
参考文献
中篇神经网络方法
第8章绪论
8.1视觉伺服系统分类
8.2视觉处理
8.2.1图像特征
8.2.2视觉估计
8.2.3图像雅可比矩阵
8.3视觉控制器
8.4无标定手眼协调
8.5本篇主要工作
第9章基于神经网络的图像雅可比矩阵估计方法
9.1图像雅可比矩阵方法原理
9.2神经网络方法原理
9.3图像雅可比矩阵分析
9.4改进的图像雅可比矩阵方法
9.5仿真结果
第10章眼固定机器人平面视觉跟踪
10.1平面视觉跟踪问题描述
10.2视觉映射模型
10.3控制策略
10.3.1实时运动规划
10.3.2神经网络映射器
10.3.3仿真结果
10.4基于在线自学习的视觉跟踪
10.4.1小脑模型神经网络
10.4.2仿真结果
第11章眼固定机器人三维视党跟踪
11.1基于立体视觉的3D视觉跟踪
11.1.1问题描述
11.1.2基于融合方程的视觉跟踪方法
11.1.3视觉映射模型
11.1.4控制策略
11.1.5仿真结果
11.2基于单摄像机的三维视觉跟踪
11.2.1问题描述
11.2.2视觉映射模型
11.2.3控制策略
11.2.4仿真结果
第12章眼在手上机器人平动视觉跟踪
12.1眼在手上无标定方法的现状
12.2机器人平面视觉跟踪
12.2.1问题描述
12.2.2眼在手上机器人视觉跟踪问题分析
12.2.3视觉映射关系模型
12.2.4控制策略
12.2.5仿真结果
12.2.6视觉定位问题
12.3基于立体视觉的3一DOF无标定视觉跟踪
12.3.1视觉映射关系模型
12.3.2控制策略
12.3.3仿真结果
第13章眼在手上机器人全自由度视觉跟踪
13.1全自由度视觉跟踪问题描述
13.2全自由度视觉跟踪问题分析
13.3视觉映射关系模型
13.4控制策略
13.5模糊神经网络
13.5.1模糊系统与神经网络的比较
13.5.2一种新的模糊神经网络
13.6仿真结果
第14章视觉跟踪系统的性能分析与改进
14.1动态视觉控制与运动视觉控制
14.2眼固定构型
14.2.1系统离散域模型
14.2.2跟踪误差分析
14.2.3控制系统稳定性
14.2.4速度前馈控制器
14.3眼在手上构型平面视觉跟踪
14.3.1系统离散域模型
14.3.2跟踪误差分析
14.3.3控制系统稳定性
14.3.4加速度前馈控制器
14.4眼固定构型与眼在手上构型的比较
第15章实验研究
15.1系统结构
15.1.1机器人及其控制器
15.1.2CCD摄像机
15.1.3图像采集卡
15.2实验设计
15.3实验步骤
15.4实验结果
本篇小结
参考文献
下篇扩张状态观测器方法
第16章绪论
16.1引言
16.2本篇主要工作
第17章基于扩张状态观测的控制器理论及参数调整
17.1扩张状态观测器
17.2传统PID控制器结构分析
17.3自抗扰控制器
17.3.1非线性跟踪微分器
17.3.2非线性状态误差反馈控制律(NLSEF)
17.3.3自抗扰控制器(ADRC)实现形式
17.3.4自抗扰控制器适用对象
17.4自抗扰控制器的参数调整
第18章手眼协调系统建模及ADRC控制器设计
18.1系统建模
18.1.1摄像机模型
18.1.2摄像机参数
18.2系统模型
18.3控制器设计
第19章系统仿真研究
19.1全局固定摄像头无标定二维运动跟踪
19.2眼固定与眼在手上相结合的无标定二维运动跟踪
19.3固定双目无标定三维运动跟踪
第20章手眼协调控制器的稳定性分析
20.1全局固定单眼构型情况下控制器形式
20.2一阶跟踪微分器的收敛性分析
20.3二阶扩张状态观测器的收敛性分析
20.4整个控制器的收敛性能分析
第21章无标定机器人手眼协调实验研究
21.1机器人手眼协调实验系统描述
21.1.1机器人子系统
21.1.2机器人视觉子系统
21.2单眼固定无标定二维运动跟踪试验
21.3眼固定与眼在手上相结合的无标定二维手眼协调实验
21.4无标定三维手眼协调实验
第22章自抗扰控制器和雅可比矩阵在线辨识联合控制的手眼协调研究
22.1控制思想描述
22.2控制器设计
22.3仿真研究
22.4二维跟踪实验
本篇小结
参考文献
点击展开 点击收起

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP