• 数据科学
21年品牌 40万+商家 超1.5亿件商品

数据科学

新华书店全新正版书籍图书 保证_可开发票_极速发货支持7天无理由

34.8 5.0折 69 全新

库存2件

浙江嘉兴
认证卖家担保交易快速发货售后保障

作者方匡南

出版社电子工业出版社

ISBN9787121342448

出版时间2018-06

装帧其他

开本16开

定价69元

货号30224948

上书时间2024-10-15

學源图书专营店

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介
方匡南,现为厦门大学经济学院统计系教授、博士生导师,耶鲁大学博士后,厦门大学数据挖掘研究中心副主任,国际统计学会会士,全国工业统计学会理事、厦门统计学会常务理事。主要研究方向为数据挖掘、机器学习、应用统计。曾先后在国外权威期刊发表论文七十多篇,主持了国家自然科学基金等项目二十多项。

目录
第1章  导论1
1.1  数据科学的发展历史1
1.2  数据科学研究的主要问题3
1.3  数据科学的主要方法5
1.4  R语言的优势7
第2章  数据读/写9
2.1  数据的读入9
2.1.1  直接输入数据9
2.1.2  读入R包中的数据10
2.1.3  从外部文件读入数据10
2.1.4  批量读入数据15
2.1.5  R语言读取文件的几个常错的问题15
2.2  写出数据17
2.3  习题18
第3章  数据清洗与预处理19
3.1  数据分类19
3.2  数据清洗20
3.2.1  处理缺失数据20
3.2.2  处理噪声数据23
3.3  数据变换23
3.4  R语言实现25
3.4.1  数据集的基本操作25
3.4.2  数据集间的操作28
3.4.3  连接数据库数据29
3.5  习题30
第4章  数据可视化31
4.1  高阶绘图工具——ggplot231
4.1.1  快速绘图32
4.1.2  使用图层构建图像34
4.1.3  分面37
4.2  ECharts239
4.2.1  安装39
4.2.2  使用40
4.3  习题48
第5章  线性回归49
5.1  问题的提出49
5.2  一元线性回归50
5.2.1  一元线性回归概述50
5.2.2  一元线性回归的参数估计52
5.2.3  一元线性回归模型的检验55
5.2.4  一元线性回归的预测56
5.3  多元线性回归分析57
5.3.1  多元线性回归模型及假定58
5.3.2  参数估计59
5.3.3  模型检验60
5.3.4  预测61
5.4  R语言实现63
5.4.1  一元线性回归63
5.4.2  多元线性回归66
5.5  习题67
第6章  线性分类69
6.1  问题的提出69
6.2  Logistic模型70
6.2.1  线性概率模型70
6.2.2  Probit模型71
6.2.3  Logit模型原理72
6.2.4  边际效应分析73
6.2.5  最大似然估计(MLE)73
6.2.6  似然比检验74
6.3  判别分析74
6.3.1  Na?ve Bayes判别分析75
6.3.2  线性判别分析76
6.3.3  二次判别分析78
6.4  分类问题评价准则78
6.5  R语言实现80
6.5.1  描述统计80
6.5.2  Logistic模型81
6.5.3  判别分析87
6.5.4  模型比较90
6.6  习题92
第7章  重抽样94
7.1  问题的提出94
7.2  基本概念94
7.2.1  训练误差和测试误差95
7.2.2  偏差和方差95
7.3  交叉验证法96
7.3.1  验证集方法97
7.3.2  留一交叉验证法97
7.3.3  K折交叉验证法98
7.4  自助法99
7.5  R语言实第1章  导论1
1.1  数据科学的发展历史1
1.2  数据科学研究的主要问题3
1.3  数据科学的主要方法5
1.4  R语言的优势7
第2章  数据读/写9
2.1  数据的读入9
2.1.1  直接输入数据9
2.1.2  读入R包中的数据10
2.1.3  从外部文件读入数据10
2.1.4  批量读入数据15
2.1.5  R语言读取文件的几个常错的问题15
2.2  写出数据17
2.3  习题18
第3章  数据清洗与预处理19
3.1  数据分类19
3.2  数据清洗20
3.2.1  处理缺失数据20
3.2.2  处理噪声数据23
3.3  数据变换23
3.4  R语言实现25
3.4.1  数据集的基本操作25
3.4.2  数据集间的操作28
3.4.3  连接数据库数据29
3.5  习题30
第4章  数据可视化31
4.1  高阶绘图工具——ggplot231
4.1.1  快速绘图32
4.1.2  使用图层构建图像34
4.1.3  分面37
4.2  ECharts239
4.2.1  安装39
4.2.2  使用40
4.3  习题48
第5章  线性回归49
5.1  问题的提出49
5.2  一元线性回归50
5.2.1  一元线性回归概述50
5.2.2  一元线性回归的参数估计52
5.2.3  一元线性回归模型的检验55
5.2.4  一元线性回归的预测56
5.3  多元线性回归分析57
5.3.1  多元线性回归模型及假定58
5.3.2  参数估计59
5.3.3  模型检验60
5.3.4  预测61
5.4  R语言实现63
5.4.1  一元线性回归63
5.4.2  多元线性回归66
5.5  习题67
第6章  线性分类69
6.1  问题的提出69
6.2  Logistic模型70
6.2.1  线性概率模型70
6.2.2  Probit模型71
6.2.3  Logit模型原理72
6.2.4  边际效应分析73
6.2.5  最大似然估计(MLE)73
6.2.6  似然比检验74
6.3  判别分析74
6.3.1  Na?ve Bayes判别分析75
6.3.2  线性判别分析76
6.3.3  二次判别分析78
6.4  分类问题评价准则78
6.5  R语言实现80
6.5.1  描述统计80
6.5.2  Logistic模型81
6.5.3  判别分析87
6.5.4  模型比较90
6.6  习题92
第7章  重抽样94
7.1  问题的提出94
7.2  基本概念94
7.2.1  训练误差和测试误差95
7.2.2  偏差和方差95
7.3  交叉验证法96
7.3.1  验证集方法97
7.3.2  留一交叉验证法97
7.3.3  K折交叉验证法98
7.4  自助法99
7.5  R语言实第1章  导论1
1.1  数据科学的发展历史1
1.2  数据科学研究的主要问题3
1.3  数据科学的主要方法5
1.4  R语言的优势7
第2章  数据读/写9
2.1  数据的读入9
2.1.1  直接输入数据9
2.1.2  读入R包中的数据10
2.1.3  从外部文件读入数据10
2.1.4  批量读入数据15
2.1.5  R语言读取文件的几个常错的问题15
2.2  写出数据17
2.3  习题18
第3章  数据清洗与预处理19
3.1  数据分类19
3.2  数据清洗20
3.2.1  处理缺失数据20
3.2.2  处理噪声数据23
3.3  数据变换23
3.4  R语言实现25
3.4.1  数据集的基本操作25
3.4.2  数据集间的操作28
3.4.3  连接数据库数据29
3.5  习题30
第4章  数据可视化31
4.1  高阶绘图工具——ggplot231
4.1.1  快速绘图32
4.1.2  使用图层构建图像34
4.1.3  分面37
4.2  ECharts239
4.2.1  安装39
4.2.2  使用40
4.3  习题48
第5章  线性回归49
5.1  问题的提出49
5.2  一元线性回归50
5.2.1  一元线性回归概述50
5.2.2  一元线性回归的参数估计52
5.2.3  一元线性回归模型的检验55
5.2.4  一元线性回归的预测56
5.3  多元线性回归分析57
5.3.1  多元线性回归模型及假定58
5.3.2  参数估计59
5.3.3  模型检验60
5.3.4  预测61
5.4  R语言实现63
5.4.1  一元线性回归63
5.4.2  多元线性回归66
5.5  习题67
第6章  线性分类69
6.1  问题的提出69
6.2  Logistic模型70
6.2.1  线性概率模型70
6.2.2  Probit模型71
6.2.3  Logit模型原理72
6.2.4  边际效应分析73
6.2.5  最大似然估计(MLE)73
6.2.6  似然比检验74
6.3  判别分析74
6.3.1  Na?ve Bayes判别分析75
6.3.2  线性判别分析76
6.3.3  二次判别分析78
6.4  分类问题评价准则78
6.5  R语言实现80
6.5.1  描述统计80
6.5.2  Logistic模型81
6.5.3  判别分析87
6.5.4  模型比较90
6.6  习题92
第7章  重抽样94
7.1  问题的提出94
7.2  基本概念94
7.2.1  训练误差和测试误差95
7.2.2  偏差和方差95
7.3  交叉验证法96
7.3.1  验证集方法97
7.3.2  留一交叉验证法97
7.3.3  K折交叉验证法98
7.4  自助法99
7.5  R语言实现100
7.5.1  验证集方法100
7.5.2  留一交叉验证法102
7.5.3  K折交叉验证法102
7.5.4  自助法103
7.6  习题104
第8章  模型选择与正则化105
8.1  问题的提出105
8.2  子集选择法106
8.2.1  最优子集法106
8.2.2  逐步选择法106
8.2.3  模型选择108
8.3  基于压缩估计的逐个变量选择109
8.3.1  LASSO惩罚110
8.3.2  SCAD惩罚111
8.3.3  MCP惩罚112
8.3.4  调整参数选择113
8.4  基于压缩估计的组变量选择113
8.4.1  自然分组结构113
8.4.2  人为分组结构114
8.5  基于压缩估计的双层变量选择115
8.5.1  复合函数型双层选择115
8.5.2  稀疏组惩罚型双层选择116
8.6  R语言实现117
8.6.1  子集选择法117
8.6.2  模型选择120
8.6.3  组模型选择122
8.6.4  双层模型选择126
8.7  习题128
第9章  决策树与组合学习129
9.1  问题的提出129
9.2  决策树130
9.2.1  基本概念130
9.2.2  分类树133
9.2.3  回归树135
9.2.4  树的优缺点137
9.3  Bagging137
9.3.1  基本算法137
9.3.2  袋外误差估计138
9.3.3  变量重要性的度量139
9.4  随机森林140
9.5  提升法142
9.5.1  Adaboost算法142
9.5.2  GBDT算法143
9.5.3  XGBoost算法143
9.6  R语言实现144
9.6.1  数据介绍144
9.6.2  描述性统计145
9.6.3  分类树145
9.6.4  Bagging148
9.6.5  随机森林149
9.6.6  Boosting150
9.7  习题155
第10章  支持向量机156
10.1  问题的提出156
10.2  最大间隔分类器157
10.2.1  使用分割超平面分类157
10.2.2  构建最大间隔分类器159
10.2.3  线性不可分的情况160
10.3  支持向量分类器161
10.3.1  使用软间隔分类161
10.3.2  构建支持向量分类器161
10.4  支持向量机163
10.4.1  使用非线性决策边界分类163
10.4.2  构建支持向量机165
10.5  与Logistic回归的关系166
10.6  支持向量回归167
10.7  R语言实现168
10.7.1  支持向量分类器168
10.7.2  支持向量机173
10.7.3  Auto数据集175
10.8  习题178
第11章  神经网络180
11.1  问题的提出181
11.2  神现100
7.5.1  验证集方法100
7.5.2  留一交叉验证法102
7.5.3  K折交叉验证法102
7.5.4  自助法103
7.6  习题104
第8章  模型选择与正则化105
8.1  问题的提出105
8.2  子集选择法106
8.2.1  最优子集法106
8.2.2  逐步选择法106
8.2.3  模型选择108
8.3  基于压缩估计的逐个变量选择109
8.3.1  LASSO惩罚110
8.3.2  SCAD惩罚111
8.3.3  MCP惩罚112
8.3.4  调整参数选择113
8.4  基于压缩估计的组变量选择113
8.4.1  自然分组结构113
8.4.2  人为分组结构114
8.5  基于压缩估计的双层变量选择115
8.5.1  复合函数型双层选择115
8.5.2  稀疏组惩罚型双层选择116
8.6  R语言实现117
8.6.1  子集选择法117
8.6.2  模型选择120
8.6.3  组模型选择122
8.6.4  双层模型选择126
8.7  习题128
第9章  决策树与组合学习129
9.1  问题的提出129
9.2  决策树130
9.2.1  基本概念130
9.2.2  分类树133
9.2.3  回归树135
9.2.4  树的优缺点137
9.3  Bagging137
9.3.1  基本算法137
9.3.2  袋外误差估计138
9.3.3  变量重要性的度量139
9.4  随机森林140
9.5  提升法142
9.5.1  Adaboost算法142
9.5.2  GBDT算法143
9.5.3  XGBoost算法143
9.6  R语言实现144
9.6.1  数据介绍144
9.6.2  描述性统计145
9.6.3  分类树145
9.6.4  Bagging148
9.6.5  随机森林149
9.6.6  Boosting150
9.7  习题155
第10章  支持向量机156
10.1  问题的提出156
10.2  最大间隔分类器157
10.2.1  使用分割超平面分类157
10.2.2  构建最大间隔分类器159
10.2.3  线性不可分的情况160
10.3  支持向量分类器161
10.3.1  使用软间隔分类161
10.3.2  构建支持向量分类器161
10.4  支持向量机163
10.4.1  使用非线性决策边界分类163
10.4.2  构建支持向量机165
10.5  与Logistic回归的关系166
10.6  支持向量回归167
10.7  R语言实现168
10.7.1  支持向量分类器168
10.7.2  支持向量机173
10.7.3  Auto数据集175
10.8  习题178
第11章  神经网络180
11.1  问题的提出181
11.2  神现100
7.5.1  验证集方法100
7.5.2  留一交叉验证法102
7.5.3  K折交叉验证法102
7.5.4  自助法103
7.6  习题104
第8章  模型选择与正则化105
8.1  问题的提出105
8.2  子集选择法106
8.2.1  最优子集法106
8.2.2  逐步选择法106
8.2.3  模型选择108
8.3  基于压缩估计的逐个变量选择109
8.3.1  LASSO惩罚110
8.3.2  SCAD惩罚111
8.3.3  MCP惩罚112
8.3.4  调整参数选择113
8.4  基于压缩估计的组变量选择113
8.4.1  自然分组结构113
8.4.2  人为分组结构114
8.5  基于压缩估计的双层变量选择115
8.5.1  复合函数型双层选择115
8.5.2  稀疏组惩罚型双层选择116
8.6  R语言实现117
8.6.1  子集选择法117
8.6.2  模型选择120
8.6.3  组模型选择122
8.6.4  双层模型选择126
8.7  习题128
第9章  决策树与组合学习129
9.1  问题的提出129
9.2  决策树130
9.2.1  基本概念130
9.2.2  分类树133
9.2.3  回归树135
9.2.4  树的优缺点137
9.3  Bagging137
9.3.1  基本算法137
9.3.2  袋外误差估计138
9.3.3  变量重要性的度量139
9.4  随机森林140
9.5  提升法142
9.5.1  Adaboost算法142
9.5.2  GBDT算法143
9.5.3  XGBoost算法143
9.6  R语言实现144
9.6.1  数据介绍144
9.6.2  描述性统计145
9.6.3  分类树145
9.6.4  Bagging148
9.6.5  随机森林149
9.6.6  Boosting150
9.7  习题155
第10章  支持向量机156
10.1  问题的提出156
10.2  最大间隔分类器157
10.2.1  使用分割超平面分类157
10.2.2  构建最大间隔分类器159
10.2.3  线性不可分的情况160
10.3  支持向量分类器161
10.3.1  使用软间隔分类161
10.3.2  构建支持向量分类器161
10.4  支持向量机163
10.4.1  使用非线性决策边界分类163
10.4.2  构建支持向量机165
10.5  与Logistic回归的关系166
10.6  支持向量回归167
10.7  R语言实现168
10.7.1  支持向量分类器168
10.7.2  支持向量机173
10.7.3  Auto数据集175
10.8  习题178
第11章  神经网络180
11.1  问题的提出181
11.2  神经网络的基本概念181
11.2.1  神经网络的基本单元——神经元181
11.2.2  神经网络的结构185
11.2.3  神经网络的学习186
11.3  神经网络模型188
11.3.1  单神经元感知器188
11.3.2  单层感知器189
11.3.3  BP神经网络190

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP