统计机器学习及Python实现
全新正版 极速发货
¥
84.37
6.6折
¥
128
全新
库存4件
作者徐礼文 编
出版社科学出版社
ISBN9787030724380
出版时间2022-09
装帧平装
开本其他
定价128元
货号1202741726
上书时间2024-09-04
商品详情
- 品相描述:全新
- 商品描述
-
目录
前言
第1章 引言
1.1 问题驱动
1.2 统计机器学习的基本任务
1.3 统计机器学习的总体目标和样本策略
1.3.1 监督学习
1.3.2 无监督学习
1.3.3 基于样本的统计机器学习方法
1.4 Anaconda、TensorFlow 2.0和PyTorch的安装
1.4.1 Anaconda的安装
1.4.2 TensorFlow 2.0的安装
1.4.3 PyTorch的安装
第2章 线性回归
2.1 一般线性回归模型
2.1.1 基本框架
2.1.2 梯度下降法
2.1.3 性能度量
2.2 多项式回归
2.3 线性回归的正则化方法
2.3.1 线性岭回归
2.3.2 LASSO回归
2.4 线性回归Python实现
第3章 线性分类器
3.1 概率生成模型
3.2 二分类概率生成模型
3.3 逻辑回归
3.4 Softmax回归
3.5 逻辑回归的
3.6 分类任务的Python实现
第4章 支持向量机
4.1 线性SVM分类器
4.2 线性支持向量回归
4.3 SVM的Python实现
4.3.1 软间隔分类
4.3.2 非线性SVM分类
4.3.3 支持向量回归的实现
第5章 核方法
5.1 特征映射
5.2 核函数
5.3 核方法的数学基础
5.3.1 希尔伯特空间
5.3.2 Riesz表示定理
5.3.3 再生核希尔伯特空间
5.4 核技巧
5.5 核方法的Python实现
5.5.1 基于核方法的岭回归和支持向量回归
5.5.2 基于核方法的支持向量分类
第6章 集成学习
6.1 决策树
6.1.1 决策树的基本概念
6.1.2 决策树的训练
6.2 学习器集成
6.3 Bagging和随机森林
6.3.1 Bagging
6.3.2 随机森林
6.4 Boosting
6.4.1 AdaBoost基本算法
6.4.2 AdaBoost算法的解释
6.4.3 多分类AdaBoost
6.4.4 Boosting的一般梯度下降算法
6.5 集成学习的Python实现
6.5.1 决策树的Python实现
6.5.2 Bagging的Python实现
6.5.3 随机森林的Python实现
6.5.4 Boosting的Python实现
第7章 深度学习的基础
7.1 前馈神经网络
7.1.1 感知器模型
7.1.2 多层感知器及其变体
7.1.3 BP算法
7.1.4 回归和分类任务中的MLP
7.2 利用Keras和TensorFlow实施MLP
7.2.1 使用Sequential API建立分类器
7.2.2 使用Functional API构建复杂模型
7.2.3 使用Subclassing API构建动态模型
7.2.4 保存和恢复模型
第8章 卷积神经网络
8.1 简介
8.2 CNN的网络架构
第9章 循环神经网络
9.1 框架
9.2 循环层
9.3 长短期记忆网络
9.4 基于RNN的时间序列预测
第10章 无监督学习
10.1 无监督学习的主要任务
10.2 自编码器
10.2.1 栈式自编码器
10.2.2 变分自编码器
10.3 GAN
10.3.1 经典GAN的基本思想
10.3.2 经典GAN的推广
10.3.3 WGAN
10.3.4 条件GAN
10.4 无监督学习的Python实现
10.4.1 PyTorch实战基础
10.4.2 图像分类的PyTorch实现
10.4.3 VAE的PyTorch实现
10.4.4 GAN的PyTorch实现
……
内容摘要
本书主要介绍统计机器学习领域常用的基础模型、算法和代码实现。包括统计机器学习、Python语言基础,常用的线性回归、贝叶斯分类器、逻辑回归、VM、核方法、集成学习,以及深度学习中的多层感知器、卷积神经网络、循环神经网络、变分自编码器、对抗生成网络和强化学习等模型与优化方法,使用Scikit-Learn、TensorFlow和PyTorch定制模型与训练等。
本书面向的主要读者是统计学、机器学习和人工智能等领域的高年级本科生和研究生,以及其他各领域有数据驱动任务的学生和从业人员。
— 没有更多了 —
以下为对购买帮助不大的评价