【包邮】 Python机器学习算法 【正版九新】
九品消毒塑封
¥
17.3
2.5折
¥
69
九五品
库存2件
作者赵志勇
出版社电子工业出版社
ISBN9787121313196
出版时间2017-07
装帧其他
开本16开
定价69元
货号9787121313196
上书时间2024-11-14
商品详情
- 品相描述:九五品
- 商品描述
-
作者简介
赵志勇,毕业于武汉大学计算机学院,CSDN博主,现就职于新浪微博,从事计算广告的算法工作。对机器学习、优化算法具有浓厚的兴趣。
目录
0 绪论
0.1 机器学习基础
0.1.1 机器学习的概念
0.1.2 机器学习算法的分类
0.2 监督学习
0.2.1 监督学习
0.2.2 监督学习的流程
0.2.3 监督学习算法
0.3 无监督学习
0.3.1 无监督学习
0.3.2 无监督学习的流程
0.3.3 无监督学习算法
0.4 推荐系统和深度学习
0.4.1 推荐系统
0.4.2 深度学习
0.5 Python和机器学习算法实践
参考文献
第一部分 分类算法
1 Logistic Regression
1.1 Logistic Regression模型
1.1.1 线性可分VS线性不可分
1.1.2 Logistic Regression模型
1.1.3 损失函数
1.2 梯度下降法
1.2.1 梯度下降法的流程
1.2.2 凸优化与非凸优化
1.2.3 利用梯度下降法训练Logistic Regression模型
1.3 梯度下降法的若干问题
1.3.1 选择下降的方向
1.3.2 步长的选择
1.4 Logistic Regression算法实践
1.4.1 利用训练样本训练Logistic Regression模型
1.4.2 最终的训练效果
1.4.3 对新数据进行预测
参考文献
2 Softmax Regression
2.1 多分类问题
2.2 Softmax Regression算法模型
2.2.1 Softmax Regression模型
2.2.2 Softmax Regression算法的代价函数
2.3 Softmax Regression算法的求解
2.4 Softmax Regression与Logistic Regression的关系
2.4.1 Softmax Regression中的参数特点
2.4.2 由Softmax Regression到Logistic Regression
2.5 Softmax Regression算法实践
2.5.1 对Softmax Regression算法的模型进行训练
2.5.2 最终的模型
2.5.3 对新的数据的预测
参考文献
3 Factorization Machine
3.1 Logistic Regression算法的不足
3.2 因子分解机FM的模型
3.2.1 因子分解机FM模型
3.2.2 因子分解机FM可以处理的问题
3.2.3 二分类因子分解机FM算法的损失函数
3.3 FM算法中交叉项的处理
3.3.1 交叉项系数
3.3.2 模型的求解
3.4 FM算法的求解
3.4.1 随机梯度下降(Stochastic Gradient Descent)
3.4.2 基于随机梯度的方式求解
3.4.3 FM算法流程
3.5 因子分解机FM算法实践
3.5.1 训练FM模型
3.5.2 最终的训练效果
3.5.3 对新的数据进行预测
参考文献
……
4 支持向量机
5 随机森林
6 BP神经网络
第二部分 回归算法
7 线性回归
8 岭回归和Lasso回归
9 CART树回归
第三部分 聚类算法
10 K-Means
11 Mean Shift
12 DBSCAN
13 Label Propagation
第四部分 推荐算法
14 协同过滤算法
15 基于矩阵分解的推荐算法
16 基于图的推荐算法
第五部分 深度学习
17 AutoEncoder
18 卷积神经网络
第六部分 项目实践
19 微博精准推荐
参考文献
附录A
附录B
内容摘要
赵志勇著的这本《Python机器学习算法》是一本机器学习入门读物,注重理论与实践的结合。全书主要包括6个部分,每个部分均以典型的机器学习算法为例,从算法原理出发,由浅入深,详细介绍算法的理论,并配合目前流行的Python语言,从零开始,实现每一个算法,以加强对机器学习算法理论的理解、
增强实际的算法实践能力,最终达到熟练掌握每一个算法的目的。与其他机器学习类图书相比,本书同时包含算法理论的介绍和算法的实践,以理论支撑实践,同时,又将复杂、枯燥的理论用简单易懂的形式表达出来,促进对理论的理解。
— 没有更多了 —
以下为对购买帮助不大的评价