• Spark机器学习实战 (美)西亚玛克·阿米尔霍吉 等 9787115541420 人民邮电出版社
21年品牌 40万+商家 超1.5亿件商品

Spark机器学习实战 (美)西亚玛克·阿米尔霍吉 等 9787115541420 人民邮电出版社

全新正版书,当天发货。如有套装书(或图片与书名不符),价格异常,可能是单本书的价格。

94.6 7.4折 128 全新

库存5件

北京通州
认证卖家担保交易快速发货售后保障

作者(美)西亚玛克·阿米尔霍吉 等

出版社人民邮电出版社

ISBN9787115541420

出版时间2020-09

装帧平装

开本16开

定价128元

货号1202120879

上书时间2024-05-14

湘云书店

十六年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介
    西亚玛克·阿米尔霍吉(Siamak Amirghodsi)是重量的不错技术执行主管,在大数据战略、云计算、定量风险管理、不错分析、大规模监管数据平台、企业架构、技术路线图、多项目执行等领域具有丰富的企业管理经验,而且入选了《财富》优选二十大人物。

目录
章Scala和Spark的机器学习实战 1

1.1引言1

1.1.1ApacheSpark2

1.1.2机器学习3

1.1.3Scala4

1.1.4本书的软件版本和使用的类库5

1.2下载和安装JDK6

1.2.1准备工作6

1.2.2操作步骤6

1.3下载和安装IntelliJ6

1.3.1准备工作7

1.3.2操作步骤7

1.4下载和安装Spark7

1.4.1准备工作7

1.4.2操作步骤7

1.5用IntelliJ配置Spark8

1.5.1准备工作8

1.5.2操作步骤8

1.5.3更多19

1.5.4参考资料19

1.6运行Spark机器学习示例代码20

1.6.1准备工作20

1.6.2操作步骤20

1.7获取机器学习实战所需的数据源22

1.7.1准备工作22

1.7.2操作步骤22

1.7.3更多23

1.8用IntelliJIDE运行个ApacheSpark2.0程序25

1.8.1操作步骤25

1.8.2工作原理31

1.8.3更多31

1.8.4参考资料32

1.9在Spark程序中添加图表32

1.9.1操作步骤32

1.9.2工作原理36

1.9.3更多37

1.9.4参考资料37

第2章Spark机器学习中的线性代数库38

2.1引言38

2.2Vector和Matrix的包引入和初始化设置40

2.2.1操作步骤40

2.2.2更多41

2.2.3参考资料42

2.3用Spark2.0创建和配置DenseVector42

2.3.1操作步骤43

2.3.2工作原理43

2.3.3更多44

2.3.4参考资料45

2.4用Spark2.0创建和配置SparseVector45

2.4.1操作步骤45

2.4.2工作原理47

2.4.3更多48

2.4.4参考资料48

2.5用Spark2.0创建和配置DenseMatrix48

2.5.1操作步骤49

2.5.2工作原理50

2.5.3更多52

2.5.4参考资料52

2.6用Spark2.0的本地SparseMatrix52

2.6.1操作步骤53

2.6.2工作原理55

2.6.3更多56

2.6.4参考资料57

2.7用Spark2.0进行Vector运算57

2.7.1操作步骤57

2.7.2工作原理59

2.7.3更多60

2.7.4参考资料61

2.8用Spark2.0进行Matrix运算61

2.8.1操作步骤61

2.8.2工作原理64

2.9研究Spark2.0分布式RowMatrix66

2.9.1操作步骤67

2.9.2工作原理70

2.9.3更多71

2.9.4参考资料72

2.10研究Spark2.0分布式IndexedRowMatrix72

2.10.1操作步骤72

2.10.2工作原理74

2.10.3参考资料75

2.11研究Spark2.0分布式CoordinateMatrix75

2.11.1操作步骤75

2.11.2工作原理76

2.11.3参考资料77

2.12研究Spark2.0分布式BlockMatrix77

2.12.1操作步骤78

2.12.2工作原理79

2.12.3参考资料79

第3章Spark机器学习的三剑客80

3.1引言81

3.1.1RDD——一切是从什么开始81

3.1.2DataFrame——使用不错API统一API和SQL的自然演变82

3.1.3Dataset——一个不错的统一数据API83

3.2用Spark2.0的内部数据源创建RDD85

3.2.1操作步骤86

3.2.2工作原理88

3.3用Spark2.0的外部数据源创建RDD88

3.3.1操作步骤88

3.3.2工作原理90

3.3.3更多90

3.3.4参考资料91

3.4用Spark2.0的filter()API转换RDD92

3.4.1操作步骤92

3.4.2工作原理95

3.4.3更多95

3.4.4参考资料95

3.5用flatMap()API转换RDD96

3.5.1操作步骤96

3.5.2工作原理98

3.5.3更多98

3.5.4参考资料99

3.6用集合操作API转换RDD99

3.6.1操作步骤99

3.6.2工作原理101

3.6.3参考资料101

3.7用groupBy()和reduceByKey()函数对RDD转换/聚合102

3.7.1操作步骤102

3.7.2工作原理104

3.7.3更多104

3.7.4参考资料105

3.8用zip()API转换RDD105

3.8.1操作步骤105

3.8.2工作原理107

3.8.3参考资料107

3.9用paired键值RDD进行关联转换107

3.9.1操作步骤107

3.9.2工作原理110

3.9.3更多110

3.10用paired键值RDD进行汇总和分组转换110

3.10.1操作步骤110

3.10.2工作原理112

3.10.3参考资料112

3.11根据Scala数据结构创建DataFrame112

3.11.1操作步骤113

3.11.2工作原理115

3.11.3更多115

3.11.4参考资料116

3.12不使用SQL方式创建DataFrame116

3.12.1操作步骤116

3.12.2工作原理120

3.12.3更多121

3.12.4参考资料121

3.13根据外部源加载DataFrame和配置121

3.13.1操作步骤121

3.13.2工作原理125

3.13.3更多125

3.13.4参考资料125

3.14用标准SQL语言(即SparkSQL)创建DataFrame126

3.14.1操作步骤126

3.14.2工作原理130

3.14.3更多130

3.14.4参考资料131

3.15用Scala序列处理DatasetAPI132

3.15.1操作步骤132

3.15.2工作原理135

3.15.3更多135

3.15.4参考资料135

3.16根据RDD创建和使用Dataset,再反向操作136

3.16.1操作步骤136

3.16.2工作原理140

3.16.3更多140

3.16.4参考资料140

3.17用DatasetAPI和SQL一起处理JSON140

3.17.1操作步骤141

3.17.2工作原理144

3.17.3更多144

3.17.4参考资料144

3.18用领域对象对DatasetAPI进行函数式编程145

3.18.1操作步骤145

3.18.2工作原理148

3.18.3更多149

3.18.4参考资料149

第4章构建一个稳健的机器学习系统的常用攻略150

4.1引言151

4.2借助Spark的基本统计API构建属于自己的算法151

4.2.1操作步骤151

4.2.2工作原理153

4.2.3更多153

4.2.4参考资料154

4.3用于真实机器学习应用的ML管道154

4.3.1操作步骤154

4.3.2工作原理156

4.3.3更多157

4.3.4参考资料157

4.4用Spark标准化数据157

4.4.1操作步骤158

4.4.2工作原理160

4.4.3更多160

4.4.4参考资料161

4.5将数据划分为训练集和测试集161

4.5.1操作步骤161

4.5.2工作原理163

4.5.3更多163

4.5.4参考资料163

4.6新DatasetAPI的常见操作163

4.6.1操作步骤163

4.6.2工作原理166

4.6.3更多166

4.6.4参考资料167

4.7在Spark2.0中从文本文件创建和使用RDD、DataFrame和Dataset167

4.7.1操作步骤167

4.7.2工作原理170

4.7.3更多170

4.7.4参考资料171

4.8SparkML的LabeledPoint数据结构171

4.8.1操作步骤171

4.8.2工作原理173

4.8.3更多173

4.8.4参考资料174

4.9用Spark2.0访问Spark集群174

4.9.1操作步骤174

4.9.2工作原理176

4.9.3更多176

4.9.4参考资料177

4.10用Spark2.0之前的版本访问Spark集群178

4.10.1操作步骤178

4.10.2工作原理180

4.10.3更多180

4.10.4参考资料180

4.11在Spark2.0中使用SparkSession对象访问SparkContext180

4.11.1操作步骤181

4.11.2工作原理184

4.11.3更多184

4.11.4参考资料184

4.12Spark2.0中的新模型导出及PMML标记185

4.12.1操作步骤185

4.12.2工作原理188

4.12.3更多188

4.12.4参考资料189

4.13用Spark2.0进行回归模型评估189

4.13.1操作步骤189

4.13.2工作原理191

4.13.3更多191

4.13.4参考资料192

4.14用Spark2.0进行二分类模型评估192

4.14.1操作步骤192

4.14.2工作原理196

4.14.3更多196

4.14.4参考资料196

4.15用Spark2.0进行多类分类模型评估197

4.15.1操作步骤197

4.15.2工作原理200

4.15.3更多200

4.15.4参考资料201

4.16用Spark2.0进行多标签分类模型评估201

4.16.1操作步骤201

4.16.2工作原理203

4.16.3更多203

4.16.4参考资料204

4.17在Spark2.0中使用ScalaBreeze库处理图像204

4.17.1操作步骤204

4.17.2工作原理207

4.17.3更多207

4.17.4参考资料208

第5章使用Spark2.0实践机器学习中的回归和分类——部分209

5.1引言209

5.2用传统方式拟合一条线性回归直线211

5.2.1操作步骤211

5.2.2工作原理214

5.2.3更多215

5.2.4参考资料215

5.3Spark2.0中的广义线性回归216

5.3.1操作步骤216

5.3.2工作原理219

5.3.3更多219

5.3.4参考资料220

5.4Spark2.0中Lasso和L-BFGS的线性回归API221

5.4.1操作步骤221

5.4.2工作原理224

5.4.3更多225

5.4.4参考资料225

5.5Spark2.0中Lasso和自动优化选择的线性回归API226

5.5.1操作步骤226

5.5.2工作原理229

5.5.3更多229

5.5.4参考资料230

5.6Spark2.0中岭回归和自动优化选择的线性回归API230

5.6.1操作步骤230

5.6.2工作原理233

5.6.3更多233

5.6.4参考资料233

5.7Spark2.0中的保序回归233

5.7.1操作步骤234

5.7.2工作原理236

5.7.3更多237

5.7.4参考资料237

5.8Spark2.0中的多层感知机分类器238

5.8.1操作步骤238

5.8.2工作原理241

5.8.3更多242

5.8.4参考资料243

5.9Spark2.0中的一对多分类器244

5.9.1操作步骤244

5.9.2工作原理247

5.9.3更多247

5.9.4参考资料248

5.10Spark2.0中的生存回归——参数化的加速失效时间模型248

5.10.1操作步骤249

5.10.2工作原理252

5.10.3更多253

5.10.4参考资料254

第6章用Spark2.0实践机器学习中的回归和分类——第二部分255

6.1引言255

6.2Spark2.0使用SGD优化的线性回归257

6.2.1操作步骤257

6.2.2工作原理260

6.2.3更多261

6.2.4参考资料261

6.3Spark2.0使用SGD优化的逻辑回归262

6.3.1操作步骤262

6.3.2工作原理266

6.3.3更多267

6.3.4参考资料268

6.4Spark2.0使用SGD优化的岭回归268

6.4.1操作步骤268

6.4.2工作原理272

6.4.3更多273

6.4.4参考资料274

6.5Spark2.0使用SGD优化的Lasso回归274

6.5.1操作步骤274

6.5.2工作原理277

6.5.3更多278

6.5.4参考资料279

6.6Spark2.0使用L-BFGS优化的逻辑回归279

6.6.1操作步骤279

6.6.2工作原理282

6.6.3更多283

6.6.4参考资料283

6.7Spark2.0的支持向量机(SVM)283

6.7.1操作步骤284

6.7.2工作原理287

6.7.3更多288

6.7.4参考资料289

6.8Spark2.0使用MLlib库的朴素贝叶斯分类器289

6.8.1操作步骤289

6.8.2工作原理294

6.8.3更多294

6.8.4参考资料294

6.9Spark2.0使用逻辑回归研究ML管道和DataFrame295

6.9.1操作步骤295

6.9.2工作原理302

6.9.3更多302

6.9.4参考资料303

第7章使用Spark实现大规模的推荐引擎304

7.1引言304

7.1.1内容过滤306

7.1.2协同过滤306

7.1.3近邻方法306

7.1.4隐因子模型技术306

7.2用Spark2.0生成可扩展推荐引擎所需的数据307

7.2.1操作步骤307

7.2.2工作原理308

7.2.3更多308

7.2.4参考资料309

7.3用Spark2.0研究推荐系统的电影数据309

7.3.1操作步骤310

7.3.2工作原理313

7.3.3更多313

7.3.4参考资料313

7.4用Spark2.0研究推荐系统的评分数据314

7.4.1操作步骤314

7.4.2工作原理317

7.4.3更多318

7.4.4参考资料318

7.5用Spark2.0和协同过滤构建可扩展的推荐引擎318

7.5.1操作步骤318

7.5.2工作原理324

7.5.3更多326

7.5.4参考资料327

7.5.5在训练过程中处理隐式的输入数据327

第8章Spark2.0的无监督聚类算法329

8.1引言329

8.2用Spark2.0构建KMeans分类系统331

8.2.1操作步骤331

8.2.2工作原理334

8.2.3更多337

8.2.4参考资料337

8.3介绍Spark2.0中的新算法,二分KMeans337

8.3.1操作步骤338

8.3.2工作原理342

8.3.3更多342

8.3.4参考资料343

8.4在Spark2.0中使用高斯混合和期望优选化(EM)对数据分类343

8.4.1操作步骤343

8.4.2工作原理347

8.4.3更多348

8.4.4参考资料349

8.5在Spark2.0中使用幂迭代聚类(PIC)对图中节点进行分类349

8.5.1操作步骤349

8.5.2工作原理352

8.5.3更多353

8.5.4参考资料353

8.6用隐狄利克雷分布(LDA)将文档和文本划分为不同主题353

8.6.1操作步骤354

8.6.2工作原理357

8.6.3更多358

8.6.4参考资料359

8.7用StreamingKMeans实现近实时的数据分类359

8.7.1操作步骤359

8.7.2工作原理363

8.7.3更多364

8.7.4参考资料365

第9章最优化——用梯度下降法寻找最小值366

9.1引言366

9.2优化二次损失函数,使用数学方法寻找最小值进行分析369

9.2.1操作步骤369

9.2.2工作原理372

9.2.3更多372

9.2.4参考资料372

9.3用梯度下降法(GD)编码实现二次损失函数的优化过程373

9.3.1操作步骤374

9.3.2工作原理377

9.3.3更多380

9.3.4参考资料382

9.4用梯度下降优化算法解决线性回归问题383

9.4.1操作步骤383

9.4.2工作原理391

9.4.3更多393

9.4.4参考资料393

9.5在Spark2.0中使用正规方程法解决线性回归问题393

9.5.1操作步骤394

9.5.2工作原理396

9.5.3更多396

9.5.4参考资料396

0章使用决策树和集成模型构建机器学习系统397

10.1引言397

10.1.1集成方法399

10.1.2不纯度的度量401

10.2获取和预处理实际的医疗数据,在Spark2.0中研究决策树和集成模型404

10.2.1操作步骤404

10.2.2工作原理406

10.3用Spark2.0的决策树构建分类系统406

10.3.1操作步骤407

10.3.2工作原理411

10.3.3更多411

10.3.4参考资料412

10.4用Spark2.0的决策树解决回归问题412

10.4.1操作步骤412

10.4.2工作原理416

10.4.3参考资料417

10.5用Spark2.0的随机森林构建分类系统417

10.5.1操作步骤417

10.5.2工作原理420

10.5.3参考资料421

10.6用

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP