• 机器学习极简入门
  • 机器学习极简入门
  • 机器学习极简入门
  • 机器学习极简入门
21年品牌 40万+商家 超1.5亿件商品

机器学习极简入门

全新正版 极速发货

61.68 6.2折 99.8 全新

库存5件

广东广州
认证卖家担保交易快速发货售后保障

作者李烨

出版社人民邮电出版社

ISBN9787115573261

出版时间2021-10

装帧平装

开本16开

定价99.8元

货号1202521315

上书时间2024-09-04

谢岳书店

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
目录
第一部分绪论

第1章为什么要学原理和公式推导2

1.1学模型就要学公式推导吗2

1.2学习原理的必要性3

第2章学习机器学习原理,改变看待世界的方式6

2.1破除迷信6

2.2追本溯源7

2.3精进看待世界的方法8

第3章如何学习机器学习10

3.1以模型为驱动,了解机器学习的本质10

3.2反复学习,从记忆到掌握10

3.3数学需要多精深11

3.4基本的数学概念12

3.5学机器学习,编程是必须的吗13

3.6日常学习小提示14

第二部分基本原理

第4章机器是如何学习的16

4.1机器学习的基本原理17

4.2有监督学习与无监督学习18

4.2.1有监督学习19

4.2.2无监督学习19

4.3机器学习的三要素:数据、模型和算法20

4.3.1数据20

4.3.2模型22

4.3.3算法24

第5章模型的获取和改进26

5.1获取模型的过程26

5.2训练集、验证集和测试集27

5.3训练的过程27

第6章模型的质量和评价指标30

6.1分类模型评价指标:准确率、召回率和F1分数30

6.2指标对应的是模型和数据集31

6.3模型的偏差和过拟合32

第7章最常用的优化算法——梯度下降法34

7.1学习目标34

7.2凸函数35

7.3梯度下降法37

7.4梯度下降法的超参数38

7.5梯度下降的难点39

第三部分有监督学习(基础)

第8章线性回归42

8.1个机器学习模型42

8.1.1从数据反推公式42

8.1.2综合利用训练数据,拟合线性回归函数44

8.1.3线性回归的目标函数44

8.1.4线性=直线?45

8.1.5用线性回归模型拟合非线性关系46

8.2梯度下降法求解目标函数47

8.2.1确定目标函数的凸性48

8.2.2斜率、导数和偏微分49

8.2.3使用梯度下降法求解目标函数51

8.2.4通用线性回归模型的目标函数求解52

8.2.5线性回归的超参数54

8.3编写线性回归训练/预测程序55

第9章朴素贝叶斯分类器57

9.1分类与回归57

9.2贝叶斯定理58

9.2.1贝叶斯公式58

9.2.2常见的贝叶斯公式59

9.3用朴素贝叶斯算法进行分类61

9.3.1朴素贝叶斯算法61

9.3.2一款极简单的朴素贝叶斯分类器62

9.4条件概率的参数66

9.4.1两个学派67

9.4.2极大似然估计法69

9.4.3正态分布的极大似然估计70

9.4.4用代码实现朴素贝叶斯模型72

第10章逻辑回归74

10.1非线性逻辑回归函数的由来75

10.1.1指数增长75

10.1.2逻辑函数76

10.1.3追本溯源的理论学习79

10.1.4线性与非线性80

10.2用来做分类的回归模型81

10.2.1逻辑回归的模型函数81

10.2.2逻辑回归的目标函数82

10.3实例及代码实现85

10.4处理多分类问题88

第11章决策树91

11.1什么是决策树91

11.1.1直观理解决策树91

11.1.2构建决策树93

11.2几种常用算法93

11.2.1ID393

11.2.2C4.594

11.2.3CART96

11.3决策树告诉你去哪儿聚餐98

11.3.1训练数据98

11.3.2特征选取98

11.3.3用ID3算法构造分类树100

11.3.4后剪枝优化决策树103

11.3.5用决策树对餐馆进行分类104

第四部分有监督学习(进阶)

第12章SVM108

12.1线性可分和超平面108

12.1.1二分类问题108

12.1.2特征的向量空间模型108

12.1.3线性可分109

12.1.4超平面110

12.2线性可分SVM111

12.3直观理解拉格朗日乘子法115

12.3.1可视化函数及其约束条件116

12.3.2拉格朗日乘子法118

12.4对偶学习算法124

12.4.1对偶问题124

12.4.2强对偶性及求解对偶问题126

12.4.3通过对偶问题求解主问题126

12.5求解线性可分SVM的目标函数127

12.5.1目标函数127

12.5.2线性可分SVM的对偶问题128

12.5.3使用对偶算法求解线性可分SVM的步骤128

12.5.4SMO算法133

12.6线性SVM,间隔由硬到软134

12.6.1从线性可分SVM到线性SVM134

12.6.2对偶法很优化线性SVM主问题138

12.6.3线性SVM的支持向量140

12.7非线性SVM和核函数142

12.7.1非线性分类问题142

12.7.2非线性SVM144

12.7.3核函数145

12.7.4数据归一化149

第13章SVR151

13.1严格的线性回归151

13.2宽容的SVR152

13.2.1模型函数152

13.2.2原理152

13.2.3SVR的两个松弛变量153

13.3SVR的主问题和对偶问题154

13.4支持向量与求解线性模型参数156

13.5SVR的核技巧157

第14章直观认识SVM和SVR159

14.1SVM实例159

14.1.1线性可分SVM159

14.1.2线性SVM162

14.1.3接近线性不可分的数据164

14.1.4核函数的作用166

14.1.5RBF核函数的威力169

14.1.6其他核函数170

14.2SVR实例171

第15章HMM174

15.1一些基本概念174

15.2数学中的HMM176

15.3HMM的3个基本问题178

15.4一个例子179

15.5HMM3个基本问题的计算181

15.5.1概率计算问题181

15.5.2预测算法184

15.5.3学习算法185

15.6HMM实例186

第16章CRF189

16.1概率无向图模型189

16.1.1势函数和团190

16.1.2Hammersley-Clifford定理190

16.1.3性质190

16.2CRF192

16.3线性链CRF193

16.3.1线性链CRF的形式化表示195

16.3.2线型链CRF的3个基本问题197

第五部分无监督学习

第17章从有监督到无监督:由KNN引出K-means202

17.1发展趋势204

17.2KNN算法205

17.2.1KNN算法原理205

17.2.2有监督学习算法KNN与无监督学习算法K-means205

17.2.3KNN的K206

第18章K-means——最简单的聚类算法208

18.1常用的几种距离计算方法208

18.2K-means210

18.3实例214

第19章谱聚类——无须指定簇数量的聚类217

19.1算法实现217

19.2算法原理219

19.3实例224

第20章EM算法——估计含有隐变量的概率模型的参数226

20.1含有隐变量的概率模型226

20.2EM算法基本思想227

20.2.1近似极大化227

20.2.2真正的目标229

20.3EM算法的推导过程230

20.3.1优化目标230

20.3.2应用EM算法230

20.4EM算法步骤233

第21章GMM235

21.1将“混”在一起的样本各归其源235

21.1.1个体与集体235

21.1.2已知每个簇的原始分布237

21.1.3已知分布条件下的样本归属238

21.1.4学习概率密度函数参数239

21.1.5同分布的混合模型241

21.2用EM算法求解GMM242

21.2.1高斯分布242

21.2.2GMM246

21.2.3用EM算法学习GMM的参数248

21.2.4GMM实例250

第22章PCA253

22.1利用数学工具提取主要特征253

22.1.1泛滥成灾的特征维度253

22.1.2降低数据维度255

22.1.3PCA的原则256

22.1.4PCA的优化目标257

22.2用SVD实现PCA262

22.2.1PCA优化算法262

22.2.2PCA的作用263

22.2.3SVD264

22.2.4用SVD实现PCA266

22.2.5直接用SVD降维266

22.2.6SVD&PCA实例267

第六部分机器学习应用

第23章认识聊天机器人272

23.1聊天机器人的基本类型272

23.2世界上款聊天机器人273

23.3聊天机器人简史274

23.4聊天机器人的实现技术276

第24章开发一款问题解决型机器人278

24.1回答问题的基础三步278

24.2多轮对话的上下文管理278

24.3分层结构279

24.4极简版系统架构280

24.5开发流程283

第25章聊天机器人的语言理解285

25.1收集语料286

25.2标注数据286

25.3划分数据集287

25.4构建向量空间模型288

25.5训练模型290

25.6测试模型292

第26章应用聚类模型获得聊天机器人语料293

26.1从用户日志中挖掘训练语料293

26.2语料对标注的影响294

26.3分析用户日志294

26.4对用户日志语料进行聚类295

第七部分从机器学习到深度学习

第27章人工智能和神经网络298

27.1人工智能、机器学习和深度学习298

27.2什么是神经网络300

27.3神经网络的训练302

第28章深度学习的兴起和发展305

28.1神经网络的历史沿革305

28.2认识深度学习307

28.3不同种类的深度学习网络307

28.3.1CNN307

28.3.2RNN309

28.3.3LSTM310

第29章深度学习的愿景、问题和应用313

29.1深度学习的愿景313

29.2深度学习的现实314

29.3机器学习与深度学习314

29.4深度学习的落地点315

29.4.1语音处理315

29.4.2图像处理316

29.4.3自然语言处理317

29.5深度学习的局限317

内容摘要
本书从机器学习的基本原理入手,以常见模型为驱动,配以精心设计的实践案例,为大家呈现了机器学习理论知识和应用方法。书中运用Python语言及scikit-learn库实现了几大常见机器学习模型的训练程序和预测程序,让读者能够理论联系实际,在学习、工作中应用机器学习。本书适合打算入门机器学习的人阅读。

主编推荐
1.针对AI入门读者,从最基本的原理及学习意义入手,以模型为驱动,带领读者吃透机器学习模型。
2.本书内含精心设计的数据量较小的简易版实例,让读者可以直观了解模型的运行原理。
3.作者总结了自身的实践经验,整理了构建数据集、选择特征、调参、验证模型的方法。
4.基本的原理+常见的案例+极小数据样本,助你轻松入门机器学习。
5.微软优选副总裁洪小文、微软技术官韦青等人作序推荐。
6.通过学习这本书,你将收获:
AI技术岗位求职知识储备
各大模型与算法触类旁通
极简版实例体验实际应用
配套数据+代码快速实操上手

媒体评论
本书用通俗易懂的语言,系统而又深入浅出地介绍了机器学习的主要算法,以及这些算法的“前世今生”。书中列举的例子生动有趣,而且结合了作者丰富的工作经验,能够让读者迅速抓住和领悟机器学习的思维重点和算法精髓,从而更好地将所学知识应用到编程中。本书对培养数字思维以及推进数字技能教育大有裨益,是人工智能的普及性读本。
——洪小文
微软优选副总裁
微软亚太研发集团主席

市面上有关机器学习的书可以说是汗牛充栋,有的侧重于算法,有的侧重于应用,有的侧重于原理,有的侧重于推导……但其实,能够把机器学习原理说清楚,做到既不神化,又不妖魔化,同时不忽略基本数学原理的推导与实现的书很少见,本书是其中难得的佳作。而且本书作者用通俗易懂的语言结合生活中常见的例子,把机器学习的原理讲得明明白白,并对容易产生学习误区的地方进行提示性解释,在我看来,这保证是本书的亮点之一。
——韦青
微软(中国)技术官

作为新基建的一环,国家将人工智能提升到重要战略的高度,而机器学习可谓踏入人工智能领域的第一级台阶。本书以一种轻松的方式引导读者逐步深入了解机器学习理论,并给出了很多动手实践的小例子,带领读者手脑并用地学习。大家可以使用本书同步进行模型训练和预测,不但能掌握理论,还可以运用学到的知识解决实际问题。

——陶建华
中国科学院自动化研究所研究员
中国科学院大学首席教授
国家杰出青年基金获得者
国家万人计划领军人才

《机器学习极简入门》关注读者学习机器学习的感受,借鉴由表及里、由浅入深、由简至繁的教学思路,讲解经典机器学习的模型、数学原理及推导过程。本书通过简单、直观、生动的表述方法来阐述深刻的学科原理,有效降低了阅读难度,激发了各类读者对机器学习的兴趣,让大家享受递进式学习的快乐。
——熊璋
北京航空航天大学教授
国家教材委员会科学学科专家委员会委员
863智慧城市(一期)首席科学家
教育部跨世纪人才,全国很好教师

这是一本可读性极强的书,其娓娓道来的铺陈方式让读者轻松一览机器学习技术的基本内容,既有宏观视野,又有点到为止的细节。读者不仅能马上感到“知道了”,而且还能感到“用得上”。
——李晓明
北京大学计算机系教授

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP