【内容简介】 人工智能 (AI) 时代已悄然而至,然而对 AI 伦理学的研究却刚刚起步。与以往的技术革命不同,AI 有望在多个领域取代人类,但也有伤害人类的潜在风险。为防止对AI技术的滥用,我们在复杂性变得不可控之前,必须把糟糕的情况都预想到、分析到。 《人工智能伦理》从人工智能的关键内容(包括图灵测试、数据、知识、机器学习、自我意识等)出发,尽可能地用朴素的语言讲清楚复杂的概念,揭示出各种AI伦理问题以唤起读者的思考。本书基于大量真实数据,阐述了和平、合理发展 AI 技术的伦理思想,对 AI 技术可能引发的某些社会问题(如技术失业、两性平等)也做了剖析。
【目录】 第1章 图灵测试 1
1.1 强人工智能 7
1.1.1 大脑与认知心理 15
1.1.2 自然语言理解 43
1.1.3 抽象能力 66
1.1.4 计算能力 81
1.1.5 推理能力 86
1.2 机器犯错归咎于谁? 101
1.2.1 安全性 107
1.2.2 根因分析 110
第 2章 数据为王 119
2.1 以改进服务为由 131
2.1.1 数据共享 137
2.1.2 数据安全与隐私保护 140
2.2 数据与模型 155
2.2.1 无法篡改的数据 159
2.2.2 零知识证明 165
第3 章 知识积累 171
3.1 知识表示与推理 187
3.1.1 更广阔的感知 192
3.1.2 可操作的知识 201
3.1.3 知识工程 204
3.2 永远的精神财富 218
3.2.1 知识的保护 226
3.2.2 知识的交流 240
3.2.3 开源运动 247
第4 章 机器学习 253
4.1 学习的方式 267
4.1.1 衡量标准 274
4.1.2 理解机器智能 278
4.1.3 模型的多样性 284
4.2 想象比知识更重要 288
4.2.1 理性的想象 291
4.2.2 学习的本质 297
第5 章 自我意识 311
5.1 自我意识的条件 319
5.1.1 好奇心 323
5.1.2 意识流 329
5.1.3 形成共识 334
5.2 超级智能 342
5.2.1 机器的德性 349
5.2.2 人工智能革命 352
5.2.3 文明更替 356
第6 章 机器奴隶 361
6.1 人工智能竞赛 369
6.1.1 潘多拉的盒子 378
6.1.2 远征外太空 385
6.2 智能制造 392
6.2.1 社会问题 397
6.2.2 新的机遇 407
第7 章伦理困境 419
7.1 监管与政策 428
7.1.1 可验证的伦理标准 431
7.1.2 人机关系 436
7.1.3 人机文化 446
7.2 法律法规 451
7.2.1 保护与约束 455
7.2.2 造福人类 460
参考文献 469
附录一 术语索引 475
附录二 人名索引 486
【前言】 机器不必具有高级智能便可能对人类造成致命的伤害,像《终结者》里的情节,它们没有怜悯之心,以追杀人类为目标。在科幻电影里,我们不止一次感受到这种来自未来的威胁,它潜伏在某个邪恶科学家的实验室里,或者在那个叫“天网”的系统里暗流涌动。 技术没有善恶,看它掌握在什么人的手中。利用技术来作恶,遭谴责的不该是技术本身,而是使用技术的“人”。随着人工智能(artificial intelligence, AI)的广泛应用,更多的AI 产品走入人们的生活。在机器拥有真正的智能之前,我们需要未雨绸缪地考虑一些哲学和伦理的问题,例如,是否应该研发有自我意识的机器?人机婚姻是否合法?机器犯罪应该如何界定?机器决策是否含有歧视?等等。 AI 时代已悄悄来临,它对人机交互中的法律、心理、政治、商业、基建、社区、服务等提出了众多挑战。而人工智能伦理学还处于萌芽阶段,科学家和社会学家意识到许多问题的存在,却没能给出令人信服的答案。例如,自动驾驶(autonomous driving)出了车祸,我们应该归咎于谁?一般的算法或编程错误不会有性命之忧,但无人驾驶却有这个风险。消费者不愿花钱买一个潜在的危险品,如果生命及财产的安全没有保障,如果相关法律责任模糊不清,自动驾驶将会引起严重的社会问题。
以下为对购买帮助不大的评价