• PySpark机器学习自然语言处理与推荐系统
21年品牌 40万+商家 超1.5亿件商品

PySpark机器学习自然语言处理与推荐系统

全新正版 极速发货

33.09 5.6折 59 全新

库存4件

广东广州
认证卖家担保交易快速发货售后保障

作者(印)普拉莫德·辛格

出版社清华大学出版社

ISBN9787302540908

出版时间2020-01

装帧平装

开本16开

定价59元

货号1202002000

上书时间2024-08-07

谢岳书店

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介
普拉莫德·辛格,Pramod Singh是Publicis.Sapient公司数据科学部门的经理,目前正作为数据科学跟踪负责人与梅赛德斯奔驰的一个项目进行合作。他在机器学习、数据工程、编程,以及为各种业务需求设计算法方面拥有丰富的实践经验,领域涉及零售、电信、汽车以及日用消费品等行业。他在Publicis.Sapient了大量应对机器学习和AI的战略计划。他在孟买大学获得了电气与电子工程的学士学位,并且在印度共生靠前大学获得了MBA学位(运营&财务),还在IIM – Calcutta(印度管理学院加尔各答分校)获得了数据分析认证。在过去八年中,他一直在跟进多个数据项目。在大量客户项目中,他使用R、Python、Spark和TensorFlow应用机器学习和深度学习技术。他一直是各重大会议和大学的演讲常客。他会在Publicis.Sapient举办数据科学聚合并且定期出席关于ML和AI的网络研讨会。他和妻子以及两岁的儿子居住在班加罗尔。闲暇的时候,他喜欢弹吉他、写代码、阅读以及观看足球比赛。

目录
第1章 数据革命 1.1 数据生成 1.2 Spark 1.2.1 Spark Core 1.2.2 Spark组件 1.3 设置环境 1.3.1 Windows 1.3.2 iOS 1.4 小结 第2章 机器学习简介 2.1 有监督机器学习 2.2 无监督机器学习 2.3 半监督机器学习 2.4 强化学习 2.5 小结 第3章 数据处理 3.1 加载和读取数据 3.2 添加一个新列 3.3 筛选数据 3.3.1 条件 3.3.2 条件 3.4 列中的非重复值 3.5 数据分组 3.6 聚合 3.7 用户自定义函数(UDF) 3.7.1 传统的Python函数 3.7.2 使用lambda函数 3.7.3 Pandas UDF(向量化的UDF) 3.7.4 Pandas UDF(多列) 3.8 去掉重复值 3.9 删除列 3.10 写入数据 3.10.1 csv 3.10.2 嵌套结构 3.11 小结 第4章 线性回归 4.1 变量 4.2 理论 4.3 说明 4.4 评估 4.5 代码 4.5.1 数据信息 4.5.2 步骤1:创建SparkSession对象 4.5.3 步骤2:读取数据集 4.5.4 步骤3:探究式数据分析 4.5.5 步骤4:特征工程化 4.5.6 步骤5:划分数据集 4.5.7 步骤6:构建和训练线性回归模型 4.5.8 步骤7:在测试数据上评估线性回归模型 4.6 小结 第5章 逻辑回归 5.1 概率 5.1.1 使用线性回归 5.1.2 使用Logit 5.2 截距(回归系数) 5.3 虚变量 5.4 模型评估 5.4.1 正确的正面预测 5.4.2 正确的负面预测 5.4.3 错误的正面预测 5.4.4 错误的负面预测 5.4.5 准确率 5.4.6 召回率 5.4.7 精度 5.4.8 F1分数 5.4.9 截断/阈值概率 5.4.10 ROC曲线 5.5 逻辑回归代码 5.5.1 数据信息 5.5.2 步骤1:创建Spark会话对象 5.5.3 步骤2:读取数据集 5.5.4 步骤3:探究式数据分析 5.5.5 步骤4:特征工程 5.5.6 步骤5:划分数据集 5.5.7 步骤6:构建和训练逻辑回归模型 5.5.8 训练结果 5.5.9 步骤7:在测试数据上评估线性回归模型 5.5.10 混淆矩阵 5.6 小结 第6章 随机森林 6.1 决策树 6.1.1 熵 6.1.2 信息增益 6.2 随机森林 6.3 代码 6.3.1 数据信息 6.3.2 步骤1:创建SparkSession对象 6.3.3 步骤2:读取数据集 6.3.4 步骤3:探究式数据分析 6.3.5 步骤4:特征工程 6.3.6 步骤5:划分数据集 6.3.7 步骤6:构建和训练随机森林模型 6.3.8 步骤7:基于测试数据进行评估 6.3.9 准确率 6.3.10 精度 6.3.11 AUC曲线下的面积 6.3.12 步骤8:保存模型 6.4 小结 第7章 推荐系统 7.1 推荐 7.1.1 基于流行度的RS 7.1.2 基于内容的RS 7.1.3 基于协同过滤的RS 7.1.4 混合推荐系统 7.2 代码 7.2.1 数据信息 7.2.2 步骤1:创建SparkSession对象 7.2.3 步骤2:读取数据集 7.2.4 步骤3:探究式数据分析 7.2.5 步骤4:特征工程 7.2.6 步骤5:划分数据集 7.2.7 步骤6:构建和训练推荐系统模型 7.2.8 步骤7:基于测试数据进行预测和评估 7.2.9 步骤8:推荐活动用户可能会喜欢的排名靠前的电影 7.3 小结 第8章 聚类 8.1 初识聚类 8.2 用途 8.2.1 K-均值 8.2.2 层次聚类 8.3 代码 8.3.1 数据信息 8.3.2 步骤1:创建SparkSession对象 8.3.3 步骤2:读取数据集 8.3.4 步骤3:探究式数据分析 8.3.5 步骤4:特征工程 8.3.6 步骤5:构建K均值聚类模型 8.3.7 步骤6:聚类的可视化 8.4 小结 第9章 自然语言处理 9.1 引言 9.2 NLP涉及的处理步骤 9.3 语料 9.4 标记化 9.5 移除停用词 9.6 词袋 9.7 计数向量器 9.8 TF-IDF 9.9 使用机器学习进行文本分类 9.10 序列嵌入 9.11 嵌入 9.12 小结

内容摘要
使用PySpark构建机器学习模型、自然语言处理应用程序以及推荐系统,从而应对各种业务挑战。本书首先介绍Spark的基础知识及其演进,然后讲解使用PySpark构建传统机器学习算法以及自然语言处理和推荐系统的全部知识点。 《PySpark机器学习、自然语言处理与推荐系统》阐释如何构建有监督机器学习模型,比如线性回归、逻辑回归、决策树和随机森林,还介绍了无监督机器学习模型,比如K均值和层次聚类。本书重点介绍特征工程,以便使用PySpark创建有用的特征,从而训练机器学习模型。自然语言处理的相关章节将介绍文本处理、文本挖掘以及用于分类的嵌入。 在阅读完本书后,读者将了解如何使用PySpark的机器学习库构建和训练各种机器学习模型。此外,还将熟练掌握相关的PySpark组件,比如数据获取、数据处理和数据分析,通过使用它们开发数据驱动的智能应用。 主要特色 构建一系列有监督和无监督机器学习算法 使用Spark MLlib库实现机器学习算法 使用Spark MLlib库开发推荐系统 处理与特征工程、分类平衡、偏差和方差以及交叉验证有关的问题,以便构建很优的拟合模型 读者对象 数据科学家、机器学习工程师。

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP