• 机器学习编程:从编码到深度学习
  • 机器学习编程:从编码到深度学习
21年品牌 40万+商家 超1.5亿件商品

机器学习编程:从编码到深度学习

全新正版 极速发货

70.23 7.1折 99 全新

库存2件

广东广州
认证卖家担保交易快速发货售后保障

作者保罗·佩罗塔(PaoloPerrotta)

出版社机械工业出版社

ISBN9787111680918

出版时间2021-05

装帧平装

开本16开

定价99元

货号31154114

上书时间2024-06-01

书香美美

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介



目录
译者序<br/>前言<br/>致谢<br/>第一部分 从零开始的<br/>图像识别<br/>第1章 机器学习的原理2<br/>1.1 编程与机器学习2<br/>1.2 监督学习4<br/>1.3 魔法背后的数学原理6<br/>1.4 设置系统8<br/>第2章 首个机器学习程序12<br/>2.1 了解问题12<br/>2.1.1 监督比萨13<br/>2.1.2 理解数据13<br/>2.2 编写线性回归代码15<br/>2.2.1 定义模型16<br/>2.2.2 进行预测18<br/>2.2.3 进行训练18<br/>2.2.4 计算误差19<br/>2.2.5 越来越接近20<br/>2.2.6 运行代码21<br/>2.3 添加偏置23<br/>2.4 小结25<br/>2.5 动手研究:设置超参数26<br/>第3章 梯度28<br/>3.1 算法的缺陷28<br/>3.2 梯度下降法30<br/>3.2.1 少量数学知识32<br/>3.2.2 陡坡速降33<br/>3.2.3 脱离平面34<br/>3.2.4 偏导数35<br/>3.2.5 测试梯度下降法37<br/>3.2.6 何时梯度下降法不适用38<br/>3.3 小结40<br/>3.4 动手研究:露营地问题40<br/>第4章 超空间41<br/>4.1 添加更多维度42<br/>4.2 矩阵代数44<br/>4.2.1 矩阵乘法45<br/>4.2.2 矩阵转置47<br/>4.3 升级学习程序47<br/>4.3.1 数据准备48<br/>4.3.2 升级预测函数50<br/>4.3.3 升级损失函数51<br/>4.3.4 升级梯度公式52<br/>4.3.5 整合函数53<br/>4.4 告别偏置54<br/>4.5 最后一次试运行55<br/>4.6 小结56<br/>4.7 动手研究:统计学家56<br/>第5章 能辨识的机器58<br/>5.1 线性回归的不足58<br/>5.2 S型函数61<br/>5.2.1 信心与疑虑62<br/>5.2.2 平滑过程63<br/>5.2.3 升级梯度65<br/>5.2.4 模型函数受到的影响66<br/>5.3 操作中的分类函数67<br/>5.4 小结69<br/>5.5 动手研究:权重的影响70<br/>第6章 计算机视觉初探71<br/>6.1 处理数据72<br/>6.1.1 MNIST入门72<br/>6.1.2 训练与测试73<br/>6.2 我们自己的MNIST库74<br/>6.2.1 准备输入矩阵74<br/>6.2.2 处理数据76<br/>6.3 实际运行79<br/>6.4 小结80<br/>6.5 动手研究:难以识别的数字80<br/>第7章 最后的挑战81<br/>7.1 多元分类81<br/>7.1.1 独热编码83<br/>7.1.2 独热编码实践84<br/>7.1.3 解码分类器的答案85<br/>7.1.4 需要更多的权重85<br/>7.1.5 回顾矩阵维数86<br/>7.2 验证与结果87<br/>7.3 小结89<br/>7.4 动手研究:扫雷舰89<br/>第8章 感知机91<br/>8.1 认识感知机91<br/>8.2 组装感知机92<br/>8.3 感知机的不足93<br/>8.3.1 线性可分数据94<br/>8.3.2 线性不可分数据95<br/>8.4 感知机史话97<br/>8.4.1 终极之战98<br/>8.4.2 论战余波98<br/>第二部分 神经网络<br/>第9章 设计神经网络100<br/>9.1 用感知机组装神经网络101<br/>9.1.1 链式感知机102<br/>9.1.2 节点数量103<br/>9.2 加入softmax函数105<br/>9.3 构建方案106<br/>9.4 小结106<br/>9.5 动手研究:网络冒险107<br/>第10章 构建神经网络108<br/>10.1 编写正向传播代码108<br/>10.1.1 编写softmax函数110<br/>10.1.2 编写分类函数112<br/>10.2 交叉熵112<br/>10.3 小结114<br/>10.4 动手研究:时间旅行的测试115<br/>第11章 训练神经网络116<br/>11.1 反向传播的使用场合116<br/>11.2 从链式法则到反向传播118<br/>11.2.1 简单网络结构的链式法则118<br/>11.2.2 复杂网络的链式法则119<br/>11.3 使用反向传播算法121<br/>11.3.1 开始之前123<br/>11.3.2 计算w2的梯度123<br/>11.3.3 计算w1的梯度124<br/>11.3.4 提炼反向函数125<br/>11.4 初始化权重126<br/>11.4.1 可怕的对称性126<br/>11.4.2 死亡神经元127<br/>11.4.3 正确的权重初始化129<br/>11.5 完成网络模型130<br/>11.6 小结132<br/>11.7 动手研究:错误的开始133<br/>第12章 分类器的工作原理134<br/>12.1 寻找边界134<br/>12.1.1 感知机的主场135<br/>12.1.2 理解分类136<br/>12.1.3 线性不可分138<br/>12.2 弯曲的边界139<br/>12.3 小结141<br/>12.4 动手研究:高难数据141<br/>第13章 小批量处理142<br/>13.1 训练过程的可视化143<br/>13.2 分批处理145<br/>13.2.1 小批量样本集的构造145<br/>13.2.2 批量样本的训练147<br/>13.3 理解小批量148<br/>13.3.1 扭曲的路径148<br/>13.3.2 大型和小型批处理150<br/>13.3.3 批处理的优缺点151<br/>13.4 小结152<br/>13.5 动手研究:最小的批量153<br/>第14章 测试的禅意154<br/>14.1 过度拟合的威胁154<br/>14.2 测试的难题156<br/>14.3 小结158<br/>14.4 动手研究:思考测试159<br/>第15章 来做开发吧160<br/>15.1 准备样本数据161<br/>15.1.1 检查输入变量的范围161<br/>15.1.2 标准化输入变量162<br/>15.1.3 标准化的实践163<br/>15.2 调优超参数164<br/>15.2.1 选择历元的数量164<br/>15.2.2 调优隐藏节点数量165<br/>15.2.3 调优学习率168<br/>15.2.4 调优批量大小170<br/>15.3 最终测试171<br/>15.4 动手研究:实现99%173<br/>15.5 小结与展望174<br/>第三部分 深度学习<br/>第16章 深度神经网络178<br/>16.1 针鼹数据集179<br/>16.2 使用Keras构建神经网络180<br/>16.2.1 计划与代码181<br/>16.2.2 加载数据182<br/>16.2.3 创建模型183<br/>16.2.4 编译模型184<br/>16.2.5 训练网络184<br/>16.2.6 描绘边界185<br/>16.2.7 实践中的Keras185<br/>16.3 更深一层187<br/>16.4 小结188<br/>16.5 动手研究:Keras游乐场188<br/>第17章 战胜过度拟合190<br/>17.1 详解过度拟合190<br/>17.1.1 过度拟合的成因191<br/>17.1.2 过度拟合与低度拟合194<br/>17.2 模型正则化195<br/>17.2.1 回顾深度网络195<br/>17.2.2 L1和L2 正则化法198<br/>17.3 正则化工具箱202<br/>17.4 小结203<br/>17.5 动手研究:保持简单204<br/>第18章 驯服深度网络205<br/>18.1 理解激活函数205<br/>18.1.1 激活函数存在的意义206<br/>18.1.2 S型函数及其运算结果207<br/>18.2 超越S型函数211<br/>18.2.1 初识ReLU211<br/>18.2.2 选择正确的函数213<br/>18.3 掌握更多的技巧215<br/>18.3.1 更好的权重初始化215<br/>18.3.2 加速梯度下降216<br/>18.3.3 高级正则化217<br/>18.3.4 最后一招:批处理标准化219<br/>18.4 小结220<br/>18.5 动手研究:10历元的挑战220<br/>第19章 超越香草神经网络222<br/>19.1 CIFAR-10数据集223<br/>19.1.1 初识CIFAR-10223<br/>19.1.2 难以分类的CIFAR数据224<br/>19.2 CNN的基本结构225<br/>19.2.1 图像就是图像226<br/>19.2.2 卷积226<br/>19.2.3 卷积层229<br/>19.3 运行卷积230<br/>19.4 小结233<br/>19.5 动手研究:大量的超参数233<br/>第20章 深度学习235<br/>20.1 深度学习的崛起235<br/>20.1.1 一场完美的革新风暴236<br/>20.1.2 临界点237<br/>20.1.3 未完待续237<br/>20.2 离谱的效率238<br/>20.3 路在何方240<br/>20.3.1 视觉之路241<br/>20.3.2 语言之路241<br/>20.3.3 图像生成之路242<br/>20.3.4 通天大道宽又阔245<br/>20.3.5 动手研究之路246<br/>20.4 你的旅程开始了246<br/>附录A Python语言入门247<br/>A.1 Python是什么样的249<br/>A.1.1 Python 是动态类型250<br/>A.1.2 Python中重要的缩进250<br/>A.2 Python语言的基本组成251<br/>A.2.1 数据类型和运算符251<br/>A.2.2 集合252<br/>A.2.3 字符串253<br/>A.2.4 循环254<br/>A.3 定义和调用函数255<br/>A.3.1 命名参数256<br/>A.3.2 默认参数257<br/>A.4 模块与包257<br/>A.4.1 定义与导入模块257<br/>A.4.2 主要习语259<br/>A.4.3 管理包260<br/>A.5 创建和使用对象262<br/>A.6 就这么多了263<br/>附录B 机器学习术语264

内容摘要
使用监督学习从头构建一个图像识别应用程序。用线性回归预测未来。深入研究梯度下降,这是一种驱动大部分机器学习的基本算法。创建感知器来分类数据。建立神经网络来处理更复杂和复杂的数据集。通过反向传播和批处理来训练和细化这些网络。分层神经网络,消除过度拟合,并添加卷积将您的神经网络转换为一个真正的深度学习系统。<br>

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP