• 机器学习极简入门
  • 机器学习极简入门
21年品牌 40万+商家 超1.5亿件商品

机器学习极简入门

【如图发货】

26.1 2.6折 99.8 九品

仅1件

四川成都
认证卖家担保交易快速发货售后保障

作者李烨 著

出版社人民邮电出版社

出版时间2021-10

货号1813507819854467073

上书时间2024-07-17

极地图书

四年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:九品
商品描述
A-510118001-015-1-10
图书标准信息
  • 作者 李烨 著
  • 出版社 人民邮电出版社
  • 出版时间 2021-10
  • 版次 1
  • ISBN 9787115573261
  • 定价 99.80元
  • 装帧 其他
  • 开本 16开
  • 页数 336页
  • 字数 469千字
【内容简介】
本书从机器学习的基本原理入手,以常见模型为驱动,配以精心设计的实践案例,为大家呈现了机器学习理论知识和应用方法。书中运用 Python 语言及 scikit-learn 库实现了几大常见机器学习模型的训练程序和预测程序,让读者能够理论联系实际,在学习、工作中应用机器学习。 

本书适合打算入门机器学习的人阅读。
【作者简介】
李烨,微软算法工程师,擅长科普写作(笔名叶蒙蒙),曾就职于易安信和太阳微系统公司。具有十几年软件开发经验,自2010年开始从事大数据平台和人工智能产品研发,在人工智能技术的应用与产品开发上颇有心得。
【目录】
第 一部分 绪论 

第 1章 为什么要学原理和公式推导 2 

1.1 学模型就要学公式推导吗 2 

1.2 学习原理的必要性 3 

第 2章 学习机器学习原理,改变看待世界的方式 6 

2.1 破除迷信 6 

2.2 追本溯源 7 

2.3 精进看待世界的方法 8 

第3章 如何学习机器学习 10 

3.1 以模型为驱动,了解机器学习的本质 10 

3.2 反复学习,从记忆到掌握 10 

3.3 数学需要多精深 11 

3.4 基本的数学概念 12 

3.5 学机器学习,编程是必须的吗 13 

3.6 日常学习小提示 14 

第二部分 基本原理 

第4章 机器是如何学习的 16 

4.1 机器学习的基本原理 17 

4.2 有监督学习与无监督学习 18 

4.2.1 有监督学习 19 

4.2.2 无监督学习 19 

4.3 机器学习的三要素:数据、模型和算法 20 

4.3.1 数据 20 

4.3.2 模型 22 

4.3.3 算法 24 

第5章 模型的获取和改进 26 

5.1 获取模型的过程 26 

5.2 训练集、验证集和测试集 27 

5.3 训练的过程 27 

第6章 模型的质量和评价指标 30 

6.1 分类模型评价指标:精确率、召回率和F1分数 30 

6.2 指标对应的是模型和数据集 31 

6.3 模型的偏差和过拟合 32 

第7章 最常用的优化算法――梯度下降法 34 

7.1 学习目标 34 

7.2 凸函数 35 

7.3 梯度下降法 37 

7.4 梯度下降法的超参数 38 

7.5 梯度下降的难点 39 

第三部分 有监督学习(基础) 

第8章 线性回归 42 

8.1 第 一个机器学习模型 42 

8.1.1 从数据反推公式 42 

8.1.2 综合利用训练数据,拟合线性回归函数 44 

8.1.3 线性回归的目标函数 44 

8.1.4 线性=直线? 45 

8.1.5 用线性回归模型拟合非线性关系 46 

8.2 梯度下降法求解目标函数 47 

8.2.1 确定目标函数的凸性 48 

8.2.2 斜率、导数和偏微分 49 

8.2.3 使用梯度下降法求解目标函数 51 

8.2.4 通用线性回归模型的目标函数求解 52 

8.2.5 线性回归的超参数 54 

8.3 编写线性回归训练/预测程序 55 

第9章 朴素贝叶斯分类器 57 

9.1 分类与回归 57 

9.2 贝叶斯定理 58 

9.2.1 贝叶斯公式 58 

9.2.2 常见的贝叶斯公式 59 

9.3 用朴素贝叶斯算法进行分类 61 

9.3.1 朴素贝叶斯算法 61 

9.3.2 一款极简单的朴素贝叶斯分类器 62 

9.4 条件概率的参数 66 

9.4.1 两个学派 67 

9.4.2 极大似然估计法 69 

9.4.3 正态分布的极大似然估计 70 

9.4.4 用代码实现朴素贝叶斯模型 72 

第 10章 逻辑回归 74 

10.1 非线性逻辑回归函数的由来 75 

10.1.1 指数增长 75 

10.1.2 逻辑函数 76 

10.1.3 追本溯源的理论学习 79 

10.1.4 线性与非线性 80 

10.2 用来做分类的回归模型 81 

10.2.1 逻辑回归的模型函数 81 

10.2.2 逻辑回归的目标函数 82 

10.3 实例及代码实现 85 

10.4 处理多分类问题 88 

第 11章 决策树 91 

11.1 什么是决策树 91 

11.1.1 直观理解决策树 91 

11.1.2 构建决策树 93 

11.2 几种常用算法 93 

11.2.1 ID3 93 

11.2.2 C4.5 94 

11.2.3 CART 96 

11.3 决策树告诉你去哪儿聚餐 98 

11.3.1 训练数据 98 

11.3.2 特征选取 98 

11.3.3 用ID3算法构造分类树 100 

11.3.4 后剪枝优化决策树 103 

11.3.5 用决策树对餐馆进行分类 104 

第四部分 有监督学习(进阶) 

第 12章 SVM 108 

12.1 线性可分和超平面 108 

12.1.1 二分类问题 108 

12.1.2 特征的向量空间模型 108 

12.1.3 线性可分 109 

12.1.4 超平面 110 

12.2 线性可分SVM 111 

12.3 直观理解拉格朗日乘子法 115 

12.3.1 可视化函数及其约束条件 116 

12.3.2 拉格朗日乘子法 118 

12.4 对偶学习算法 124 

12.4.1 对偶问题 124 

12.4.2 强对偶性及求解对偶问题 126 

12.4.3 通过对偶问题求解主问题 126 

12.5 求解线性可分SVM 的目标函数 127 

12.5.1 目标函数 127 

12.5.2 线性可分SVM的对偶问题 128 

12.5.3 使用对偶算法求解线性可分SVM的步骤 128 

12.5.4 SMO 算法 133 

12.6 线性SVM,间隔由硬到软 134 

12.6.1 从线性可分SVM到线性SVM 134 

12.6.2 对偶法最优化线性SVM 主问题 138 

12.6.3 线性SVM 的支持向量 140 

12.7 非线性SVM 和核函数 142 

12.7.1 非线性分类问题 142 

12.7.2 非线性SVM 144 

12.7.3 核函数 145 

12.7.4 数据归一化 149 

第 13章 SVR 151 

13.1 严格的线性回归 151 

13.2 宽容的SVR 152 

13.2.1 模型函数 152 

13.2.2 原理 152 

13.2.3 SVR 的两个松弛变量 153 

13.3 SVR 的主问题和对偶问题 154 

13.4 支持向量与求解线性模型参数 156 

13.5 SVR 的核技巧 157 

第 14章 直观认识 SVM 和 SVR 159 

14.1 SVM 实例 159 

14.1.1 线性可分SVM 159 

14.1.2 线性SVM 162 

14.1.3 完全线性不可分的数据 164 

14.1.4 核函数的作用 166 

14.1.5 RBF 核函数的威力 169 

14.1.6 其他核函数 170 

14.2 SVR 实例 171 

第 15章 HMM 174 

15.1 一些基本概念 174 

15.2 数学中的HMM 176 

15.3 HMM 的3个基本问题 178 

15.4 一个例子 179 

15.5 HMM 3个基本问题的计算 181 

15.5.1 概率计算问题 181 

15.5.2 预测算法 184 

15.5.3 学习算法 185 

15.6 HMM实例 186 

第 16章 CRF 189 

16.1 概率无向图模型 189 

16.1.1 势函数和团 190 

16.1.2 Hammersley-Clifford定理 190 

16.1.3 性质 190 

16.2 CRF 192 

16.3 线性链CRF 193 

16.3.1 线性链CRF的形式化表示 195 

16.3.2 线型链CRF的3个基本问题  197 

第五部分 无监督学习 

第 17章 从有监督到无监督:由KNN引出K-means 202 

17.1 发展趋势 204 

17.2 KNN算法 205 

17.2.1 KNN算法原理 205 

17.2.2 有监督学习算法KNN与无监督学习算法K-means 205 

17.2.3 KNN的K 206 

第 18章 K-means――最简单的聚类算法 208 

18.1 常用的几种距离计算方法 208 

18.2 K-means 210 

18.3 实例 214 

第 19章 谱聚类――无须指定簇数量的聚类 217 

19.1 算法实现 217 

19.2 算法原理 219 

19.3 实例 224 

第 20章 EM算法――估计含有隐变量的概率模型的参数 226 

20.1 含有隐变量的概率模型 226 

20.2 EM算法基本思想 227 

20.2.1 近似极大化 227 

20.2.2 真正的目标 229 

20.3 EM算法的推导过程 230 

20.3.1 优化目标 230 

20.3.2 应用EM算法 230 

20.4 EM算法步骤 233 

第 21章 GMM 235 

21.1 将“混”在一起的样本各归其源 235 

21.1.1 个体与集体 235 

21.1.2 已知每个簇的原始分布 237 

21.1.3 已知分布条件下的样本归属 238 

21.1.4 学习概率密度函数参数 239 

21.1.5 同分布的混合模型 241 

21.2 用EM算法求解GMM 242 

21.2.1 高斯分布 242 

21.2.2 GMM 246 

21.2.3 用EM算法学习GMM的参数 248 

21.2.4 GMM实例 250 

第 22章 PCA 253 

22.1 利用数学工具提取主要特征 253 

22.1.1 泛滥成灾的特征维度 253 

22.1.2 降低数据维度 255 

22.1.3 PCA的原则 256 

22.1.4 PCA的优化目标 257 

22.2 用SVD实现PCA 262 

22.2.1 PCA优化算法 262 

22.2.2 PCA的作用 263 

22.2.3 SVD 264 

22.2.4 用SVD实现PCA 266 

22.2.5 直接用SVD降维 266 

22.2.6 SVD&PCA实例 267 

第六部分 机器学习应用 

第 23章 认识聊天机器人 272 

23.1 聊天机器人的基本类型 272 

23.2 世界上第 一款聊天机器人 273 

23.3 聊天机器人简史 274 

23.4 聊天机器人的实现技术 276 

第 24章 开发一款问题解决型机器人 278 

24.1 回答问题的基础三步 278 

24.2 多轮对话的上下文管理 278 

24.3 分层结构 279 

24.4 极简版系统架构 280 

24.5 开发流程 283 

第 25章 聊天机器人的语言理解 285 

25.1 收集语料 286 

25.2 标注数据 286 

25.3 划分数据集 287 

25.4 构建向量空间模型 288 

25.5 训练模型 290 

25.6 测试模型 292 

第 26章 应用聚类模型获得聊天机器人语料 293 

26.1 从用户日志中挖掘训练语料 293 

26.2 语料对标注的影响 294 

26.3 分析用户日志 294 

26.4 对用户日志语料进行聚类 295 

第七部分 从机器学习到深度学习 

第 27章 人工智能和神经网络 298 

27.1 人工智能、机器学习和深度学习 298 

27.2 什么是神经网络 300 

27.3 神经网络的训练 302 

第 28章 深度学习的兴起和发展 305 

28.1 神经网络的历史沿革 305 

28.2 认识深度学习 307 

28.3 不同种类的深度学习网络 307 

28.3.1 CNN 307 

28.3.2 RNN 309 

28.3.3 LSTM 310 

第 29章 深度学习的愿景、问题和应用 313 

29.1 深度学习的愿景 313 

29.2 深度学习的现实 314 

29.3 机器学习与深度学习 314 

29.4 深度学习的落地点 315 

29.4.1 语音处理 315 

29.4.2 图像处理 316 

29.4.3 自然语言处理 317 

29.5 深度学习的局限 317
点击展开 点击收起

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP