• Python机器学习:基于PyTorch和Scikit-Learn
  • Python机器学习:基于PyTorch和Scikit-Learn
  • Python机器学习:基于PyTorch和Scikit-Learn
  • Python机器学习:基于PyTorch和Scikit-Learn
  • Python机器学习:基于PyTorch和Scikit-Learn
  • Python机器学习:基于PyTorch和Scikit-Learn
21年品牌 40万+商家 超1.5亿件商品

Python机器学习:基于PyTorch和Scikit-Learn

全新正版 极速发货

92.33 5.8折 159 全新

库存33件

广东广州
认证卖家担保交易快速发货售后保障

作者[美]塞巴斯蒂安·拉施卡(Sebastian Raschka),[美]刘玉溪(海登)(Yuxi (Hayden) Liu),[美]瓦希德·米尔贾利利(Vahid Mirjalili) 著

出版社机械工业

ISBN9787111726814

出版时间2023-06

装帧其他

开本其他

定价159元

货号1202938256

上书时间2024-06-06

大智慧小美丽

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
目录
CONTENTS<br />目  录<br /><br /><br />译者序<br />序<br />前言<br />作者简介<br />审校者简介<br /><br />第1章 赋予计算机从数据中学习的能力1<br /> 1.1 将数据转化为知识的智能系统1<br /> 1.2 三种机器学习类型2<br />1.2.1 用于预测未来的监督学习2<br />1.2.2 解决交互问题的强化学习4<br />1.2.3 发现数据中隐藏规律的无监督学习 5<br /> 1.3 基本术语与符号6<br />1.3.1 本书中使用的符号和约定6<br />1.3.2 机器学习术语8<br /> 1.4 构建机器学习系统的路线图8<br />1.4.1 数据预处理——让数据可用8<br />1.4.2 训练和选择预测模型9<br />1.4.3 使用未见过的数据对模型进行评估10<br /> 1.5 使用Python实现机器学习算法10<br />1.5.1 从Python Package Index中安装Python和其他软件包10<br />1.5.2 使用Anaconda Python<br />软件包管理器11<br />1.5.3 科学计算、数据科学和机器学习软件包12<br /> 1.6 本章小结13<br />第2章 训练简单的机器学习分类算法14<br /> 2.1 人工神经元——机器学习早期历史一瞥14<br />2.1.1 人工神经元的定义15<br />2.1.2 感知机学习规则16<br /> 2.2 使用Python实现感知机学习算法19<br />2.2.1 面向对象的感知机API19<br /><br />2.2.2 使用鸢尾花数据集训练感知机22<br /> 2.3 自适应线性神经元与算法收敛27<br />2.3.1 使用梯度下降法最小化损失函数28<br />2.3.2 在Python中实现Adaline30<br />2.3.3 通过特征缩放改进梯度下降34<br />2.3.4 大规模机器学习与随机梯度下降36<br /> 2.4 本章小结41<br /><br />XIV<br />第3章 ScikitLearn机器学习分类算法之旅42<br /> 3.1 分类算法的选择42<br /> 3.2 学习ScikitLearn的第一步——训练感知机43<br /> 3.3 用逻辑回归算法建模分类概率48<br />3.3.1 逻辑回归与条件概率48<br />3.3.2 用逻辑损失函数更新模型权重51<br />3.3.3 从Adaline的代码实现到逻辑回归的代码实现53<br />3.3.4 用ScikitLearn训练逻辑回归模型56<br />3.3.5 使用正则化避免模型过拟合59<br /> 3.4 基于最大分类间隔的支持向量机62<br />3.4.1 理解最大分类间隔62<br />3.4.2 使用松弛变量解决非线性可分问题62<br />3.4.3 ScikitLearn中另外一种实现64<br /> 3.5 使用核支持向量机求解非线性问题64<br />3.5.1 处理线性不可分数据的核方法64<br />3.5.2 使用核方法在高维空间中寻找分离超平面66<br /> 3.6 决策树学习69<br />3.6.1 最大化信息增益70<br />3.6.2 构建决策树73<br />3.6.3 多棵决策树组成随机森林76<br /> 3.7 基于惰性学习策略的k近邻算法78<br /> 3.8 本章小结81<br />第4章 构建良好的训练数据集——数据预处理83<br /> 4.1 处理缺失值83<br />4.1.1 识别表格数据中的缺失值83<br />4.1.2 删除含有缺失值的样本或特征85<br />4.1.3 填补缺失值85<br />4.1.4 ScikitLearn的估计器86<br /> 4.2 处理类别数据87<br />4.2.1 用pandas实现类别数据编码88<br />4.2.2 映射有序特征88<br />4.2.3 类别标签编码89<br />4.2.4 标称特征的独热编码90<br /> 4.3 将数据集划分为训练数据集和测试数据集93<br /> 4.4 使特征具有相同的尺度95<br /> 4.5 选择有意义的特征97<br />4.5.1 用L1和L2正则化对模型复杂度进行惩罚98<br />4.5.2 L2正则化的几何解释98<br />4.5.3 L1正则化与稀疏解99<br />4.5.4 序贯特征选择算法102<br /> 4.6 用随机森林评估特征重要性107<br /> 4.7 本章小结109<br />第5章 通过降维方法压缩数据110<br /> 5.1 无监督降维的主成分分析方法110<br />5.1.1 主成分分析的主要步骤110<br />5.1.2 提取主成分的步骤112<br />5.1.3 总方差和被解释的方差114<br />5.1.4 特征变换115<br />5.1.5 用ScikitLearn实现主成分分析118<br />5.1.6 评估特征的贡献120<br /> 5.2 监督数据压缩的线性判别分析方法122<br />5.2.1 主成分分析与线性判别分析122<br />5.2.2 线性判别分析基本原理123<br />5.2.3 计算散布矩阵124<br />5.2.4 为新特征子空间选择线性判别式126<br />5.2.5 将样本投影到新的特征空间128<br />5.2.6 用ScikitLearn实现线性判别分析128<br /> 5.3 非线性降维和可视化130<br />5.3.1 非线性降维的不足130<br />5.3.2 使用tSNE可视化数据131<br /> 5.4 本章小结135<br />XV<br />第6章 模型评估和超参数调优的最佳实践136<br /> 6.1 使用pipeline方法简化工作流程136<br />6.1.1 加载威斯康星乳腺癌数据集136<br />6.1.2 在pipeline中集成转换器和估计器138<br /> 6.2 使用k折交叉验证评估模型性能140<br />6.2.1 holdout交叉验证140<br />6.2.2 k折交叉验证140<br /> 6.3 用学习曲线和验证曲线调试算法144<br />6.3.1 使用学习曲线解决偏差和方差问题144<br />6.3.2 使用验证曲线解决过拟合和欠拟合问题146<br /> 6.4 通过网格搜索微调机器学习模型148<br />6.4.1 通过网格搜索调整超参数148<br />6.4.2 通过随机搜索更广泛地探索超参数的配置149<br />6.4.3 连续减半超参数的搜索算法151<br />6.4.4 嵌套交叉验证153<br /> 6.5 模型性能评估指标154<br />6.5.1 混淆矩阵155<br />6.5.2 精确率和召回率156<br />6.5.3 绘制ROC曲线158<br />6.5.4 多分类器评价指标160<br />6.5.5 处理类别不均衡问题161<br /> 6.6 本章小结163<br />XVI<br />第7章 组合不同模型的集成学习164<br /> 7.1 集成学习164<br /> 7.2 通过绝对多数投票组合分类器167<br />7.2.1 实现一个简单的基于绝对多数投票的集成分类器167<br />7.2.2 使用绝对多数投票原则进行预测171<br />7.2.3 评估和调整集成分类器173<br /> 7.3 bagging——基于bootstrap样本构建集成分类器179<br />7.3.1 bagging简介179<br />7.3.2 使用bagging对葡萄酒数据集中的样本进行分类180<br /> 7.4 通过自适应boosting提高弱学习器的性能184<br />7.4.1 boosting的工作原理184<br />7.4.2 用ScikitLearn实现AdaBoost188<br /> 7.5 梯度boosting——基于损失梯度训练集成分类器191<br />7.5.1 比较AdaBoost与梯度boosting191<br />7.5.2 通用的梯度boosting算法概述191<br />7.5.3 解释用于分类的梯度boosting算法193<br />7.5.4 用梯度boosting分类的例子194<br />7.5.5 使用XGBoost196<br /> 7.6 本章小结197<br />第8章 用机器学习进行情感分析198<br /> 8.1 对IMDb影评数据进行文本处理198<br />8.1.1 获取影评数据集199<br />8.1.2 将影评数据集预处理成更易使用的格式199<br /> 8.2 词袋模型201<br />8.2.1 将单词转换为特征向量201<br />8.2.2 通过词频-逆文档频率评估单词的相关性203<br />8.2.3 文本数据清洗204<br />8.2.4 将文档处理成token206<br /> 8.3 训练用于文档分类的逻辑回归模型208<br /> 8.4 处理更大的数据——在线算法<br />和核外学习方法210<br /> 8.5 用潜在狄利克雷分配实现主题<br />建模213<br />8.5.1 使用LDA分解文本<br />文档214<br />8.5.2 用ScikitLearn实现<br />LDA214<br /> 8.6 本章小结217<br />第9章 预测连续目标变量的<br />回归分析218<br /> 9.1 线性回归简介218<br />9.1.1 简单线性回归218<br />9.1.2 多元线性回归219<br /> 9.2 探索艾姆斯住房数据集220<br />9.2.1 将艾姆斯住房数据集加载<br />到DataFrame中220<br />9.2.2 可视化数据集的重要<br />特征222<br />9.2.3 使用相关矩阵查看<br />相关性223<br /> 9.3 最小二乘线性回归模型的<br />实现225<br />9.3.1 用梯度下降法求解回归<br />参数225<br />9.3.2 用ScikitLearn估计回归<br />模型的系数229<br /> 9.4 使用RANSAC拟合稳健回归<br />模型231<br /> 9.5 评估线性回归模型的性能233<br /> 9.6 使用正则化方法进行回归237<br /> 9.7 将线性回归模型转化为曲线——<br />多项式回归238<br />9.7.1 使用ScikitLearn添加<br />多项式项239<br />9.7.2 建模艾姆斯住房数据<br />集中的非线性关系240<br /> 9.8 使用随机森林处理非线性<br />关系243<br />9.8.1 决策树回归243<br />9.8.2 随机森林回归245<br /> 9.9 本章小结247<br />XVII<br />第10章 处理无标签数据的<br />聚类分析248<br /> 10.1 使用k均值算法对样本分组248<br />10.1.1 用ScikitLearn实现<br />k均值聚类248<br />10.1.2 k均值++——更聪明的<br />簇初始化方法252<br />10.1.3 硬聚类与软聚类253<br />10.1.4 用肘方法求解最优簇的<br />数量255<br />10.1.5 通过轮廓图量化聚类<br />质量255<br /> 10.2 把簇组织成层次树260<br />10.2.1 自底向上的聚类260<br />10.2.2 在距离矩阵上进行分层<br />聚类262<br />10.2.3 热度图与树状图<br />结合265<br />10.2.4 通过ScikitLearn进行<br />凝聚聚类266<br /> 10.3 通过DBSCAN定位高密度<br />区域267<br /> 10.4 本章小结272<br /><br />XVIII<br />第11章 从零开始实现多层人工神经网络273<br /> 11.1 用人工神经网络建立复杂函数<br />模型273<br />11.1.1 单层神经网络274<br />11.1.2 多层神经网络结构275<br />11.1.3 利用前向传播激活神经<br />网络277<br /> 11.2 识别手写数字279<br />11.2.1 获取并准备MNIST<br />数据集279<br />11.2.2 实现多层感知机282<br />11.2.3 神经网络训练代码287<br />11.2.4 评估神经网络的<br />性能291<br /> 11.3 训练人工神经网络295<br />11.3.1 损失函数的计算295<br />11.3.2 理解反向传播296<br />11.3.3 通过反向传播训练<br />神经网络297<br /> 11.4 关于神经网络的收敛性300<br /> 11.5 关于神经网络实现的最后<br />几句话300<br /> 11.6 本章小结301<br />第12章 用PyTorch并行训练<br />神经网络302<br /> 2.1 PyTorch和模型的训练性能302<br />12.1.1 性能挑战302<br />12.1.2 什么是PyTorch303<br />12.1.3 如何学习PyTorch304<br /> 12.2 学习PyTorch的第一步304<br />12.2.1 安装PyTorch305<br />12.2.2 在PyTorch中创建<br />张量306<br />12.2.3 对张量形状和数据<br />类型进行操作307<br />12.2.4 张量数学运算307<br />12.2.5 拆分、堆叠和连接<br />张量309<br /> 12.3 在PyTorch中构建输入<br />pipeline310<br />12.3.1 使用已有张量创建<br />PyTorch DataLoader<br />311<br />12.3.2 将两个张量组合成<br />一个联合数据集311<br />12.3.3 乱序、批处理和<br />重复313<br />12.3.4 用存储在本地硬盘的<br />文件创建数据集314<br />12.3.5 从torchvision.datasets<br />库中获取数据集318<br /> 12.4 在PyTorch中构建神经网络模型321<br />12.4.1 PyTorch神经网络模块322<br />12.4.2 构建线性回归模型322<br />12.4.3 使用torch.nn和<br />torch.optim模块<br />训练模型325<br />12.4.4 构建多层感知机对鸢尾花数据集分类326<br />12.4.5 在测试数据集上评估训练好的模型329<br />12.4.6 保存和重新加载训练好的模型329<br /> 12.5 为多层神经网络选择激活函数330<br />12.5.1 回顾逻辑函数331<br />12.5.2 使用softmax函数估计多分类中的<br />类别概率332<br />12.5.3 使用双曲正切函数拓宽输出范围333<br />12.5.4 整流线性单元335<br /> 12.6 本章小结337<br />第13章 深入探讨PyTorch的<br />工作原理338<br /> 13.1 PyTorch的主要功能338<br /> 13.2 PyTorch的计算图339<br />13.2.1 理解计算图339<br />13.2.2 在PyTorch中创建计算图339<br /> 13.3 用于存储和更新模型参数的<br />PyTorch张量340<br /> 13.4 通过自动微分计算梯度342<br />13.4.1 计算损失函数关于<br />可微变量的梯度342<br />13.4.2 自动微分343<br />13.4.3 对抗样本344<br /> 13.5 使用torch.nn模块简化常见<br />结构344&

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP