• AI安全:技术与实战
21年品牌 40万+商家 超1.5亿件商品

AI安全:技术与实战

网络技术 前沿攻击方法和原理分析,原汁原味的实战案例呈现;全书涵盖对抗样本攻击、数据投毒攻击、模型后门攻击、预训练模型安全、AI数据隐私窃取、AI应用失控风险;全彩很好设计 真实视觉体验。 新华书店全新正版书籍

99.67 6.7折 148 全新

库存11件

江苏无锡
认证卖家担保交易快速发货售后保障

作者腾讯安全朱雀实验室

出版社电子工业出版社

出版时间2022-10

版次1

装帧其他

货号1202726750

上书时间2023-02-12

新华文轩网络书店

十四年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
新华文轩网络书店 全新正版书籍
商品描述
"腾讯安全朱雀实验室首著。
前沿【攻击方法和原理】分析,原汁原味的【实战案例】呈现。
全书涵盖六大主题十四个实战案例:对抗样本攻击、数据投毒攻击、模型后门攻击、预训练模型安全、AI数据隐私窃取、AI应用失控风险。
全彩很好设计 真实视觉体验。"
图书标准信息
  • 作者 腾讯安全朱雀实验室
  • 出版社 电子工业出版社
  • 出版时间 2022-10
  • 版次 1
  • ISBN 9787121439261
  • 定价 148.00元
  • 装帧 其他
  • 开本 16开
  • 纸张 胶版纸
  • 页数 324页
  • 字数 329千字
【内容简介】
● 本书首先介绍AI与AI安全的发展起源、世界主要经济体的AI发展战略规划,给出AI安全技术发展脉络和框架,并从AI安全实战出发,重点围绕对抗样本、数据投毒、模型后门等攻击技术进行案例剖析和技术讲解;然后对预训练模型中的风险和防御、AI数据隐私窃取攻击技术、AI应用失控的风险和防御进行详细分析,并佐以实战案例和数据;最后对AI安全的未来发展进行展望,探讨AI安全的风险、机遇、发展理念和产业构想。
  ● 本书适合AI和AI安全领域的研究人员、管理人员,以及需要实战案例辅助学习的广大爱好者阅读。
【作者简介】
腾讯安全朱雀实验室专注于AI 安全技术研究及应用,围绕对抗机器学习、AI模型安全、深伪检测等方面取得了一系列研究成果,议题入选CVPR、ICLR、CanSecWest、HITB、POC、XCon等国内外顶级会议,面向行业发布了业内第一个AI安全威胁风险矩阵,持续聚焦AI在产业应用的安全问题,助力AI安全技术创新。
【目录】
●第1章 AI安全发展概述●

1.1 AI与安全衍生

1.1.1 AI发展图谱

1.1.2 各国AI发展战略

1.1.3 AI行业标准

1.1.4 AI安全的衍生本质——科林格里奇困境

1.2 AI安全技术发展脉络

 

●第2章 对抗样本攻击●

2.1 对抗样本攻击的基本原理

2.1.1 形式化定义与理解

2.1.2 对抗样本攻击的分类

2.1.3 对抗样本攻击的常见衡量指标

2.2 对抗样本攻击技巧与攻击思路

2.2.1 白盒攻击算法

2.2.2 黑盒攻击算法

2.3 实战案例:语音、图像、文本识别引擎绕过

2.3.1 语音识别引擎绕过

2.3.2 图像识别引擎绕过

2.3.3 文本识别引擎绕过

2.4 实战案例:物理世界中的对抗样本攻击

2.4.1 目标检测原理

2.4.2 目标检测攻击原理

2.4.3 目标检测攻击实现

2.4.4 攻击效果展示

2.5 案例总结

 

●第3章 数据投毒攻击●

3.1 数据投毒攻击概念

3.2 数据投毒攻击的基本原理

3.2.1 形式化定义与理解

3.2.2 数据投毒攻击的范围与思路

3.3 数据投毒攻击技术发展

3.3.1 传统数据投毒攻击介绍

3.3.2 数据投毒攻击约束

3.3.3 数据投毒攻击效率优化

3.3.4 数据投毒攻击迁移能力提升

3.4 实战案例:利用数据投毒攻击图像分类模型

3.4.1 案例背景

3.4.2 深度图像分类模型

3.4.3 数据投毒攻击图像分类模型

3.4.4 实验结果

3.5 实战案例:利用投毒日志躲避异常检测系统

3.5.1 案例背景

3.5.2 RNN异常检测系统

3.5.3 投毒方法介绍

3.5.4 实验结果

3.6 案例总结

 

●第4章 模型后门攻击●

4.1 模型后门概念

4.2 后门攻击种类与原理

4.2.1 投毒式后门攻击

4.2.2 非投毒式后门攻击

4.2.3 其他数据类型的后门攻击

4.3 实战案例:基于数据投毒的模型后门攻击

4.3.1 案例背景

4.3.2 后门攻击案例

4.4 实战案例:供应链攻击

4.4.1 案例背景

4.4.2 解析APK

4.4.3 后门模型训练

4.5 实战案例:基于模型文件神经元修改的模型后门攻击

4.5.1 案例背景

4.5.2 模型文件神经元修改

4.5.3 触发器优化

4.6 案例总结

 

●第5章 预训练模型安全●

5.1 预训练范式介绍

5.1.1 预训练模型的发展历程

5.1.2 预训练模型的基本原理

5.2 典型风险分析和防御措施

5.2.1 数据风险

5.2.2 敏感内容生成风险

5.2.3 供应链风险

5.2.4 防御策略

5.3 实战案例:隐私数据泄露

5.3.1 实验概况

5.3.2 实验细节

5.3.3 结果分析

5.4 实战案例:敏感内容生成

5.4.1 实验概况

5.4.2 实验细节

5.4.3 结果分析

5.5 实战案例:基于自诊断和自去偏的防御

5.5.1 实验概况

5.5.2 实验细节

5.5.3 结果分析

5.6 案例总结

 

●第6 章 AI数据隐私窃取●

6.1 数据隐私窃取的基本原理

6.1.1 模型训练中数据隐私窃取

6.1.2 模型使用中数据隐私窃取

6.2 数据隐私窃取的种类与攻击思路

6.2.1 数据窃取攻击

6.2.2 成员推理攻击

6.2.3 属性推理攻击

6.3 实战案例:联邦学习中的梯度数据窃取攻击

6.3.1 案例背景

6.3.2 窃取原理介绍

6.3.3 窃取案例

6.3.4 结果分析

6.4 实战案例:利用AI水印对抗隐私泄露

6.4.1 案例背景

6.4.2 AI保护数据隐私案例

6.4.3 AI水印介绍

6.4.4 结果分析

6.5 案例总结

 

●第7 章 AI应用失控风险●

7.1 AI应用失控

7.1.1 深度伪造技术

7.1.2 深度伪造安全风险

7.2 AI应用失控防御方法

7.2.1 数据集

7.2.2 技术防御

7.2.3 内容溯源

7.2.4 行业实践

7.2.5 面临挑战

7.2.6 未来工作

7.3 实战案例:VoIP电话劫持 语音克隆攻击

7.3.1 案例背景

7.3.2 实验细节

7.4 实战案例:深度伪造鉴别

7.4.1 案例背景

7.4.2 实验细节

7.4.3 结果分析

7.5 案例总结

 

●后记 AI安全发展展望●
点击展开 点击收起

—  没有更多了  —

以下为对购买帮助不大的评价

新华文轩网络书店 全新正版书籍
此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP