• 深入浅出神经网络与深度学习(图灵出品)
  • 深入浅出神经网络与深度学习(图灵出品)
  • 深入浅出神经网络与深度学习(图灵出品)
  • 深入浅出神经网络与深度学习(图灵出品)
  • 深入浅出神经网络与深度学习(图灵出品)
  • 深入浅出神经网络与深度学习(图灵出品)
  • 深入浅出神经网络与深度学习(图灵出品)
  • 深入浅出神经网络与深度学习(图灵出品)
  • 深入浅出神经网络与深度学习(图灵出品)
  • 深入浅出神经网络与深度学习(图灵出品)
21年品牌 40万+商家 超1.5亿件商品

深入浅出神经网络与深度学习(图灵出品)

正版,有少量笔记划线,无水印,无印章

10 1.1折 89 九品

库存2件

湖南长沙
认证卖家担保交易快速发货售后保障

作者迈克尔·尼尔森(Michael Nielsen) 著;朱小虎 译

出版社人民邮电出版社

出版时间2020-08

版次1

装帧其他

货号23866

上书时间2024-09-24

云盟书阁

六年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:九品
图书标准信息
  • 作者 迈克尔·尼尔森(Michael Nielsen) 著;朱小虎 译
  • 出版社 人民邮电出版社
  • 出版时间 2020-08
  • 版次 1
  • ISBN 9787115542090
  • 定价 89.00元
  • 装帧 其他
  • 开本 16开
  • 页数 227页
  • 字数 355千字
【内容简介】

本书深入讲解神经网络和深度学习技术,侧重于阐释深度学习的核心概念。作者以技术原理为导向,辅以贯穿全书的MNIST手写数字识别项目示例,介绍神经网络架构、反向传播算法、过拟合解决方案、卷积神经网络等内容,以及如何利用这些知识改进深度学习项目。学完本书后,读者将能够通过编写Python代码来解决复杂的模式识别问题。

【作者简介】

【作者简介】
迈克尔.尼尔森(Michael Nielsen)
计算机科学家、量子物理学家、科普作家,Y Combinator Research的研究Fellow,曾受邀在哈佛大学、斯坦福大学、麻省理工学院、剑桥大学、牛津大学等高校以及谷歌和微软等公司做主题演讲,另著有高分作品《重塑发现》和《量子计算和量子信息》。
【译者简介】
朱小虎
University AI创始人兼首席科学家、Center for Safe AGI创始人、谷歌开发者机器学习专家、百度深度学习布道者。和团队核心成员一起创建了TASA、DL Center(深度学习知识中心全球价值网络)和AI Growth(行业智库培训)等。举办过多场国际性人工智能峰会和活动。在多个技术平台写下了近百万字的人工智能精品技术内容。曾受邀为多所国内高校制定人工智能学习规划和教授人工智能前沿课程,也曾为多家世界500强企业提供人工智能方面的战略布局建议及落地实施等方面的咨询建议。

【目录】
前言 

第 1章 使用神经网络识别手写数字 1 

1.1 感知机 2 

1.2 sigmoid神经元 7 

1.3 神经网络的架构 11 

1.4 一个简单的神经网络:分类手写数字 13 

1.5 利用梯度下降算法进行学习 17 

1.6 实现分类数字的神经网络 25 

1.7 迈向深度学习 37 

第 2章 反向传播算法工作原理 41 

2.1 热身:使用矩阵快速计算输出 41 

2.2 关于代价函数的两个假设 43 

2.3 阿达马积s⊙t 45 

2.4 反向传播的4个基本方程 45 

2.5 基本方程的证明(选学) 50 

2.6 反向传播算法 51 

2.7 反向传播代码 53 

2.8 就何而言,反向传播算快 55 

2.9 反向传播:全局观 56 

第3章 改进神经网络的学习方法 60 

3.1 交叉熵代价函数 60 

3.1.1 引入交叉熵代价函数 64 

3.1.2 使用交叉熵来对MNIST数字进行分类 71 

3.1.3 交叉熵的含义与起源 72 

3.1.4 softmax 74 

3.2 过拟合和正则化 78 

3.2.1 正则化 84 

3.2.2 为何正则化有助于减轻过拟合 89 

3.2.3 其他正则化技术 93 

3.3 权重初始化 102 

3.4 复探手写识别问题:代码 106 

3.5 如何选择神经网络的超参数 116 

3.6 其他技术 126 

3.6.1 随机梯度下降算法的变化形式 126 

3.6.2 其他人工神经元模型 129 

3.6.3 有关神经网络的故事 132 

第4章 神经网络可以计算任何函数的可视化证明 134 

4.1 两个预先声明 136 

4.2 一个输入和一个输出的普遍性 137 

4.3 多个输入变量 146 

4.4 不止sigmoid神经元 154 

4.5 修补阶跃函数 156 

4.6 小结 159 

第5章 为何深度神经网络很难训练 160 

5.1 梯度消失问题 163 

5.2 梯度消失的原因 168 

5.2.1 为何出现梯度消失 170 

5.2.2 梯度爆炸问题 171 

5.2.3 梯度不稳定问题 172 

5.2.4 梯度消失问题普遍存在 172 

5.3 复杂神经网络中的梯度不稳定 173 

5.4 深度学习的其他障碍 174 

第6章 深度学习 175 

6.1 卷积神经网络入门 176 

6.1.1 局部感受野 178 

6.1.2 共享权重和偏置 180 

6.1.3 池化层 182 

6.2 卷积神经网络的实际应用 184 

6.2.1 使用修正线性单元 188 

6.2.2 扩展训练数据 189 

6.2.3 插入额外的全连接层 191 

6.2.4 集成神经网络 192 

6.3 卷积神经网络的代码 195 

6.4 图像识别领域近期的进展 208 

6.4.1 2012年的LRMD论文 208 

6.4.2 2012年的KSH论文 209 

6.4.3 2014年的ILSVRC竞赛 211 

6.4.4 其他活动 212 

6.5 其他深度学习模型 214 

6.5.1 循环神经网络 214 

6.5.2 长短期记忆单元 216 

6.5.3 深度信念网络、生成模型和玻尔兹曼机 216 

6.5.4 其他想法 217 

6.6 神经网络的未来 217 

6.6.1 意图驱动的用户界面 217 

6.6.2 机器学习、数据科学和创新的循环 218 

6.6.3 神经网络和深度学习的作用 218 

6.6.4 神经网络和深度学习将主导人工智能 219 

附录 是否存在关于智能的简单算法 222 

版权声明
点击展开 点击收起

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP