• Python机器学习(原书第3版)
  • Python机器学习(原书第3版)
21年品牌 40万+商家 超1.5亿件商品

Python机器学习(原书第3版)

正版图书,可开发票,请放心购买。

121.94 8.2折 149 全新

库存3件

广东广州
认证卖家担保交易快速发货售后保障

作者塞巴斯蒂安·拉施卡(SebastianRaschka),瓦希德·米尔贾利利(VahidMirjalili)

出版社机械工业出版社

ISBN9787111681373

出版时间2021-05

装帧平装

开本16开

定价149元

货号31155320

上书时间2024-06-27

淘书宝店

九年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介



目录
译者序<br/>前言<br/>作者简介<br/>审校者简介<br/>第1章 赋予计算机从数据中学习的能力1<br/> 1.1 构建能把数据转换为知识的智能机器1<br/> 1.2 三种不同类型的机器学习1<br/>   1.2.1 用监督学习预测未来2<br/>   1.2.2 用强化学习解决交互问题3<br/>   1.2.3 用无监督学习发现隐藏的结构4<br/> 1.3 基本术语与符号4<br/>   1.3.1 本书中使用的符号和约定5<br/>   1.3.2 机器学习的术语6<br/> 1.4 构建机器学习系统的路线图6<br/>   1.4.1 预处理——整理数据6<br/>   1.4.2 训练和选择预测模型7<br/>   1.4.3 评估模型并对未曾谋面的数据进行预测8<br/> 1.5 将Python用于机器学习8<br/>   1.5.1 利用Python Package Index安装Python及其他软件包8<br/>   1.5.2 采用Anaconda Python发行版和软件包管理器8<br/>   1.5.3 用于科学计算、数据科学和机器学习的软件包9<br/> 1.6 本章小结9<br/>第2章 训练简单的机器学习分类算法10<br/> 2.1 人工神经元——机器学习的早期历史10<br/>   2.1.1 人工神经元的正式定义11<br/>   2.1.2 感知器学习规则12<br/> 2.2 用Python实现感知器学习算法14<br/>   2.2.1 面向对象的感知器API14<br/>   2.2.2 在鸢尾花数据集上训练感知器模型16<br/> 2.3 自适应线性神经元和学习收敛20<br/>   2.3.1 通过梯度下降最小化代价函数21<br/>   2.3.2 用Python实现Adaline22<br/>   2.3.3 通过特征缩放改善梯度下降26<br/>   2.3.4 大规模机器学习与随机梯度下降27<br/> 2.4 本章小结31<br/>第3章 scikit-learn机器学习分类器32<br/> 3.1 选择分类算法32<br/> 3.2 了解scikit-learn的第一步——训练感知器32<br/> 3.3 基于逻辑回归的分类概率建模37<br/>   3.3.1 逻辑回归与条件概率37<br/>   3.3.2 学习逻辑代价函数的权重39<br/>   3.3.3 将Adaline实现转换为一个逻辑回归算法41<br/>   3.3.4 用scikit-learn训练逻辑回归模型44<br/>   3.3.5 通过正则化解决过拟合问题46<br/> 3.4 使用支持向量机最大化分类间隔48<br/>   3.4.1 对分类间隔最大化的直观认识48<br/>   3.4.2 用松弛变量解决非线性可分问题50<br/>   3.4.3 其他的scikit-learn实现51<br/> 3.5 用核支持向量机求解非线性问题51<br/>   3.5.1 处理线性不可分数据的核方法52<br/>   3.5.2 利用核技巧发现高维空间的分离超平面53<br/> 3.6 决策树学习56<br/>   3.6.1 最大化信息增益——获得最大收益56<br/>   3.6.2 构建决策树59<br/>   3.6.3 多个决策树的随机森林组合62<br/> 3.7 k-近邻——一种惰性学习算法64<br/> 3.8 本章小结66<br/>第4章 构建良好的训练数据集——数据预处理67<br/> 4.1 处理缺失数据67<br/>   4.1.1 识别数据中的缺失值67<br/>   4.1.2 删除有缺失值的训练样本或特征68<br/>   4.1.3 填补缺失值69<br/>   4.1.4 了解scikit-learn估计器API69<br/> 4.2 处理类别数据70<br/>   4.2.1 用pandas实现类别数据的编码70<br/>   4.2.2 映射序数特征71<br/>   4.2.3 为分类标签编码71<br/>   4.2.4 为名义特征做独热编码72<br/> 4.3 把数据集划分为独立的训练数据集和测试数据集74<br/> 4.4 保持相同的特征缩放76<br/> 4.5 选择有意义的特征78<br/>   4.5.1 L1和L2正则化对模型复杂度的惩罚78<br/>   4.5.2 L2正则化的几何解释78<br/>   4.5.3 L1正则化的稀疏解决方案79<br/>   4.5.4 序列特征选择算法82<br/> 4.6 用随机森林评估特征的重要性86<br/> 4.7 本章小结88<br/>第5章 通过降维压缩数据89<br/> 5.1 用主成分分析实现无监督降维89<br/>   5.1.1 主成分分析的主要步骤89<br/>   5.1.2 逐步提取主成分90<br/>   5.1.3 总方差和解释方差92<br/>   5.1.4 特征变换93<br/>   5.1.5 用scikit-learn实现主成分分析95<br/> 5.2 基于线性判别分析的监督数据压缩97<br/>   5.2.1 主成分分析与线性判别分析97<br/>   5.2.2 线性判别分析的内部工作原理98<br/>   5.2.3 计算散布矩阵98<br/>   5.2.4 为新特征子空间选择线性判别100<br/>   5.2.5 将样本投影到新的特征空间102<br/>   5.2.6 用scikit-learn实现LDA103<br/> 5.3 非线性映射的核主成分分析104<br/>   5.3.1 核函数与核技巧104<br/>   5.3.2 用Python实现核主成分分析107<br/>   5.3.3 投影新的数据点112<br/>   5.3.4 scikit-learn的核主成分分析115<br/> 5.4 本章小结116<br/>第6章 模型评估和超参数调优的最佳实践117<br/> 6.1 用流水线方法简化工作流117<br/>   6.1.1 加载威斯康星乳腺癌数据集117<br/>   6.1.2 在流水线中集成转换器和估计器118<br/> 6.2 使用k折交叉验证评估模型性能120<br/>   6.2.1 holdout方法120<br/>   6.2.2 k折交叉验证121<br/> 6.3 用学习和验证曲线调试算法123<br/>   6.3.1 用学习曲线诊断偏差和方差问题124<br/>   6.3.2 用验证曲线解决过拟合和欠拟合问题126<br/> 6.4 通过网格搜索调优机器学习模型127<br/>   6.4.1 通过网格搜索调优超参数128<br/>   6.4.2 通过嵌套式交叉验证选择算法129<br/> 6.5 了解不同的性能评估指标130<br/>   6.5.1 分析混淆矩阵130<br/>   6.5.2 优化分类模型的精度和召回率131<br/>   6.5.3 绘制ROC曲线133<br/>   6.5.4 多元分类评分指标135<br/>   6.5.5 处理类不均衡问题135<br/> 6.6 本章小结137<br/>第7章 组合不同模型的集成学习138<br/> 7.1 集成学习138<br/> 7.2 通过多数票机制组合分类器140<br/>   7.2.1 实现一个简单的多数票分类器141<br/>   7.2.2 用多数票原则进行预测145<br/>   7.2.3 评估和优化集成分类器147<br/> 7.3 bagging——基于bootstrap样本构建集成分类器151<br/>   7.3.1 bagging简介151<br/>   7.3.2 应用bagging对葡萄酒数据集中的样本分类152<br/> 7.4 通过自适应boosting提高弱学习机的性能155<br/>   7.4.1 boosting的工作原理156<br/>   7.4.2 用scikit-learn实现AdaBoost158<br/> 7.5 本章小结161<br/>第8章 用机器学习进行情感分析162<br/> 8.1 为文本处理预备好IMDb电影评论数据162<br/>   8.1.1 获取电影评论数据集162<br/>   8.1.2 把电影评论数据集预处理成更方便的格式163<br/> 8.2 词袋模型介绍164<br/>   8.2.1 把单词转换成特征向量164<br/>   8.2.2 通过词频-逆文档频率评估单词相关性166<br/>   8.2.3 清洗文本数据167<br/>   8.2.4 把文档处理成令牌168<br/> 8.3 训练用于文档分类的逻辑回归模型170<br/> 8.4 处理更大的数据集——在线算法和核外学习172<br/> 8.5 用潜在狄利克雷分配实现主题建模174<br/>   8.5.1 使用LDA分解文本文档175<br/>   8.5.2 scikit-learn中的LDA175<br/> 8.6 本章小结178<br/>第9章 将机器学习模型嵌入Web应用179<br/> 9.1 序列化拟合的scikit-learn估计器179<br/> 9.2 搭建SQLite数据库存储数据181<br/> 9.3 用Flask开发Web应用183<br/>   9.3.1 第一个Flask Web应用183<br/>   9.3.2 表单验证与渲染185<br/> 9.4 将电影评论分类器转换为Web应用189<br/>   9.4.1 文件与文件夹——研究目录树190<br/>   9.4.2 实现主应用app.py190<br/>   9.4.3 建立评论表单192<br/>   9.4.4 创建结果页面模板193<br/> 9.5 在公共服务器上部署Web应用195<br/>   9.5.1 创建PythonAnywhere账户195<br/>   9.5.2 上传电影分类器应用195<br/>   9.5.3 更新电影分类器196<br/> 9.6 本章小结198<br/>第10章 用回归分析预测连续目标变量199<br/> 10.1 线性回归简介199<br/>    10.1.1 简单线性回归199<br/>    10.1.2 多元线性回归200<br/> 10.2 探索住房数据集200<br/>    10.2.1 加载住房数据200<br/>    10.2.2 可视化数据集的重要特点202<br/>    10.2.3 用相关矩阵查看关系203<br/> 10.3 普通最小二乘线性回归模型的实现205<br/>    10.3.1 用梯度下降方法求解回归参数205<br/>    10.3.2 通过scikit-learn估计回归模型的系数207<br/> 10.4 利用RANSAC拟合鲁棒回归模型209<br/> 10.5 评估线性回归模型的性能211<br/> 10.6 用正则化方法进行回归213<br/> 10.7 将线性回归模型转换为曲线——多项式回归214<br/>    10.7.1 用scikit-learn增加多项式项214<br/>    10.7.2 为住房数据集中的非线性关系建模216<br/> 10.8 用随机森林处理非线性关系218<br/>    10.8.1 决策树回归218<br/>    10.8.2 随机森林回归219<br/> 10.9 本章小结221<br/>第11章 用聚类分析处理无标签数据223<br/> 11.1 用k-均值进行相似性分组223<br/>    11.1.1 用scikit-learn实现k-均值聚类223<br/>    11.1.2 k-均值++——更聪明地设置初始集群质心的方法226<br/>    11.1.3 硬聚类与软聚类227<br/>    11.1.4 用肘部方法求解最优集群数228<br/>    11.1.5 通过轮廓图量化聚类质量229<br/> 11.2 把集群组织成层次树233<br/>    11.2.1 以自下而上的方式聚类233<br/>    11.2.2 在距离矩阵上进行层次聚类234<br/>    11.2.3 热度图附加树状图236<br/>    11.2.4 通过scikit-learn进行凝聚聚类238<br/> 11.3 通过DBSCAN定位高密度区域238<br/> 11.4 本章小结242<br/>第12章 从零开始实现多层人工神经网络243<br/> 12.1 用人工神经网络建立复杂函数模型243<br/>    12.1.1 单层神经网络回顾244<br/>    12.1.2 多层神经网络体系结构简介245<br/>    12.1.3 利用正向传播激活神经网络247<br/> 12.2 识别手写数字249<br/>    12.2.1 获取并准备MNIST数据集249<br/>    12.2.2 实现一个多层感知器254<br/> 12.3 训练人工神经网络262<br/>    12.3.1 逻辑代价函数的计算262<br/>    12.3.2 理解反向传播264<br/>    12.3.3 通过反向传播训练神经网络265<br/> 12.4 关于神经网络的收敛性267<br/> 12.5 关于神经网络实现的最后几句话268<br/> 12.6 本章小结268<br/>第13章 用TensorFlow并行训练神经网络269<br/> 13.1 TensorFlow与模型训练的性能269<br/>    13.1.1 性能挑战269<br/>    13.1.2 什么是TensorFlow270<br/>    13.1.3 如何学习TensorFlow271<br/> 13.2 学习TensorFlow的第一步271<br/>    13.2.1 安装TensorFlow271<br/>    13.2.2 在TensorFlow中创建张量272<br/>    13.2.3 对张量形状和数据类型进行操作273<br/>    13.2.4 对张量进行数学运算273<br/>    13.2.5 拆分、堆叠和连接张量275<br/> 13.3 用TensorFlow的Dataset API构建输入流水线276<br/>    13.3.1 用现存张量创建TensorFlow的数据集276<br/>    13.3.2 把两个张量整合成一个联合数据集277<br/>    13.3.3 洗牌、批处理和重复278<br/>    13.3.4 从本地磁盘的文件创建数据集280<br/>    13.3.5 从tensorflow_datasets获取可用的数据集282<br/> 13.4 在TensorFlow中构建神经网络模型286<br/>    13.4.1 TensorFlow Keras API(tf.keras)287<br/>    13.4.2 构建线性回归模型287<br/>    13.4.3 通过.compile()和.fit()方法训练模型291<br/>    13.4.4 在鸢尾花数据集上构建多层分类感知器291<br/>    13.4.5 在测试数据集上评估训练后的模型294<br/>    13.4.6 保存并重新加载训练后的模型294<br/> 13.5 选择多层神经网络的激活函数295<br/>    13.5.1 关于逻辑函数的回顾295<br/>    13.5.2 在多元分类中调用softmax函数评估分类概率296<br/>    13.5.3 利用双曲正切拓宽输出范围297<br/>    13.5.4 修正线性单元激活函数299<br/> 13.6 本章小结300<br/>第14章 深入探讨TensorFlow的工作原理301<br/> 14.1 TensorFlow的主要功能301<br/> 14.2 TensorFlow的计算图:迁移到TensorFlow v2302<br/>    14.2.1 了解TensorFlow的计算图302<br/>    14.2.2 在TensorFlow v1.x中创建计算图302<br/>    14.2.3 将计算图迁移到TensorFlow v2303<br/>    14.2.4 在TensorFlow v1.x中将输入数据加载到模型304<br/>    14.2.5 在TensorFlow v2中将输入数据加载到模型304<br/>    14.2.6 通过函数修饰器提高计算性能305<br/> 14.3 用于存储和更新模型参数的TensorFlow变量对象306<br/> 14.4 通过自动微分和GradientTape计算梯度309<br/>    14.4.1 针对可训练变量计算损失的梯度309<br/>    14.4.2 针对不可训练张量计算梯度310<br/>    14.4.3 保留用于多个梯度计算的资源311<br/> 14.5 通过Keras API简化通用体系结构的实现311<br/>    14.5.1 解决XOR分类问题313<br/>    14.5.2 用Keras的函数式API灵活建模317<br/>    14.5.3 基于Keras的Model类建模318<br/>    14.5.4 编写自定义Keras层318<br/> 14.6 TensorFlow估计器32

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP