• 机器学习(Python+sklearn+TensorFlow2.0微课视频版)/大数据与人工智能技术丛书
  • 机器学习(Python+sklearn+TensorFlow2.0微课视频版)/大数据与人工智能技术丛书
21年品牌 40万+商家 超1.5亿件商品

机器学习(Python+sklearn+TensorFlow2.0微课视频版)/大数据与人工智能技术丛书

全新正版 极速发货

40.16 5.7折 69.9 全新

库存2件

广东广州
认证卖家担保交易快速发货售后保障

作者王衡军|责编:王冰飞

出版社清华大学

ISBN9787302559283

出版时间2020-09

装帧其他

开本其他

定价69.9元

货号30965357

上书时间2024-06-30

大智慧小美丽

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
导语摘要
 本书讲解细致准确,案例易于理解,全书讲述了机器学习常见任务模型的算法及应用,实用性强。

目录
源码资源
下载
第1章  绪论
  1.1  机器学习是什么
  1.2  机器学习算法
    1.2.1  机器学习算法分类
    1.2.2  机器学习算法的术语
  1.3  本书的学习之路
  1.4  编程环境及工具包
第2章  聚类
  2.1  k均值聚类算法及应用示例
    2.1.1  算法及实现
    2.1.2  在手机机主身份识别中的应用示例
    2.1.3  进一步讨论
    2.1.4  改进算法
  2.2  聚类算法基础
    2.2.1  聚类任务
    2.2.2  样本点常用距离度量
    2.2.3  聚类算法评价指标
    2.2.4  聚类算法分类
  2.3  DBSCAN及其派生算法
    2.3.1  相关概念及算法流程
    2.3.2  邻域参数ε和MinPts的确定
    2.3.3  OPTICS算法
  2.4  AGNES算法
    2.4.1  簇之间的距离度量
    2.4.2  算法流程
  2.5  练习题
第3章  回归
  3.1  回归任务、评价与线性回归模型
    3.1.1  回归任务
    3.1.2  线性回归模型与回归评价指标
    3.1.3  最小二乘法求解线性回归模型
  3.2  机器学习中的最优化方法
    3.2.1  最优化模型
    3.2.2  迭代法
    3.2.3  梯度下降法
    3.2.4  全局最优与凸优化
    3.2.5  牛顿法
  3.3  多项式回归
  3.4  过拟合与泛化
    3.4.1  欠拟合、过拟合与泛化能力
    3.4.2  泛化能力评估方法
    3.4.3  过拟合抑制
  3.5  向量相关性与岭回归
    3.5.1  向量的相关性
    3.5.2  岭回归算法
  3.6  局部回归
    3.6.1  局部加权线性回归
    3.6.2  K近邻法

内容摘要
本书讨论了机器学习的基本问题和基本算法。
从方便学习的目的出发,本书主要以聚类任务、回归任务、分类任务、标注任务、概率模型、神经网络模型、深度学习模型七个主题对相关内容进行组织。前四个主题以机器学习的四个主要任务为核心讨论相关算法及基础知识。概率类模型和神经网络类模型可以完成聚类、回归、分类和标注等多类任务,但它们各有自成体系的基础知识,因此各设一
个主题进行集中讨论,可能更方便读者理解。深度学习模型属于神经网络模型,但它具有明显的特征
和广泛的应用,是机器学习领域的后起之秀

精彩内容
第3章回归与分簇、分类和标注任务不同,回归(Regression)任务预测的不是有限的离散的标签值,而是无限的连续值。回归任务的目标是通过对训练样本的学习,得到从样本特征集到连续值之间的映射。如天气预测任务中,预测天气是冷还是热是分类问题,而预测精确的温度值则是回归问题。
本章从较容易理解的线性回归入手,分别讨论了线性回归、多项式回归、岭回归和局部回归等算法。
本章引入了最优化计算、过拟合处理、向量相关性度量等机器学习基础知识。
某些神经网络也可完成回归任务,有关神经网络的算法将在后文有关章节中统一讨论。
视频3.1回归任务、评价与线性回归模型3.1.1回归任务设样本集S={s1,s2,…,sm}包含m个样本,样本si=(xi,yi)包括一个实例xi和一个实数标签值yi,实例由n维特征向量表示,即xi=(x(1)i,x(2)i,…,x(n)i)。回归任务可分为学习过程和预测过程,如图31所示。
图31回归任务的模型在学习过程,基于损失函数最小的思想,学习得到一个模型,该模型是从实例特征向量到实数的映射,用决策函数Y=f(X)来表示,X是定义域,它是所有实例特征向量的集合,Y是值域R。
记测试样本为x=(x(1),x(2),…,x(n))。在预测过程,利用学习到的模型来得到测试样本x的预测值y^。
误差和误差平方是回归模型的评价指标,常作为损
失函数,在下文结合线性回归进行讨论。
回归常表现为用曲线或曲面(二维或高维)去逼近分布于空间中的各样本点,因此也称为拟合。直线和平面可视为特殊的曲线和曲面。
3.1.2线性回归模型与回归评价指标当用输入样本的特征的线性组合作为预测值时,就是线性回归(LinearRegression)。
记样本为s=(x,y),其中x为样本的实例,x=(x(1),x(2),…,x(n)),x(j)为实例x的第j维特征,也直接称为该样本的第j维特征,y为样本的标签,在回归问题中,y是一个无限的连续值。
定义一个包含n个实数变量的集合{w(1),w(2),…,w(n)}和一个实数变量b,将样本的特征进行线性组合:f(x)=w(1)·x(1)+w(2)·x(2)+…+w(n)·x(n)+b(31)就得到了线性回归模型,用向量表示为f(x)=W·xT+b(32)其中,向量W=(w(1)w(2)…w(n))称为回归系数,负责调节各特征的权重,标量b称为偏置,负责调节总体的偏差。显然,在线性回归模型中,回归系数和偏置

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP