¥ 20.4 2.6折 ¥ 79 全新
仅1件
作者[美]Sean、Robin、Ted、Ellen Friedman 著;王斌、韩冀中、万吉 译
出版社人民邮电出版社
出版时间2014-03
版次1
装帧平装
货号9787115347220
上书时间2024-12-16
第1章 初识Mahout
1.1 Mahout的故事
1.2 Mahout的机器学习主题
1.2.1 推荐引擎
1.2.2 聚类
1.2.3 分类
1.3 利用Mahout和Hadoop处理大规模数据
1.4 安装Mahout
1.4.1 Java和IDE
1.4.2 安装Maven
1.4.3 安装Mahout
1.4.4 安装Hadoop
1.5 小结
第一部分 推荐
第2章 推荐系统
2.1 推荐的定义
2.2 运行第一个推荐引擎
2.2.1 创建输入
2.2.2 创建一个推荐程序
2.2.3 分析输出
2.3 评估一个推荐程序
2.3.1 训练数据与评分
2.3.2 运行RecommenderEvaluator
2.3.3 评估结果
2.4 评估查准率与查全率
2.4.1 运行RecommenderIRStats-Evaluator
2.4.2 查准率和查全率的问题
2.5 评估GroupLens数据集
2.5.1 提取推荐程序的输入
2.5.2 体验其他推荐程序
2.6 小结
第3章 推荐数据的表示
3.1 偏好数据的表示
3.1.1 Preference对象
3.1.2 PreferenceArray及其实现
3.1.3 改善聚合的性能
3.1.4 FastByIDMap和FastIDSet
3.2 内存级DataModel
3.2.1 GenericDataModel
3.2.2 基于文件的数据
3.2.3 可刷新组件
3.2.4 更新文件
3.2.5 基于数据库的数据
3.2.6 JDBC和MySQL
3.2.7 通过JNDI进行配置
3.2.8 利用程序进行配置
3.3 无偏好值的处理
3.3.1 何时忽略值
3.3.2 无偏好值时的内存级表示
3.3.3 选择兼容的实现
3.4 小结
第4章 进行推荐
4.1 理解基于用户的推荐
4.1.1 推荐何时会出错
4.1.2 推荐何时是正确的
4.2 探索基于用户的推荐程序
4.2.1 算法
4.2.2 基于GenericUserBased-Recommender实现算法
4.2.3 尝试GroupLens数据集
4.2.4 探究用户邻域
4.2.5 固定大小的邻域
4.2.6 基于阈值的邻域
4.3 探索相似性度量
4.3.1 基于皮尔逊相关系数的相似度
4.3.2 皮尔逊相关系数存在的问题
4.3.3 引入权重
4.3.4 基于欧氏距离定义相似度
4.3.5 采用余弦相似性度量
4.3.6 采用斯皮尔曼相关系数基于相对排名定义相似度
4.3.7 忽略偏好值基于谷本系数计算相似度
4.3.8 基于对数似然比更好地计算相似度
4.3.9 推测偏好值
4.4 基于物品的推荐
4.4.1 算法
4.4.2 探究基于物品的推荐程序
4.5 Slope-one推荐算法
4.5.1 算法
4.5.2 Slope-one实践
4.5.3 DiffStorage和内存考虑
4.5.4 离线计算量的分配
4.6 最新以及试验性质的推荐算法
4.6.1 基于奇异值分解的推荐算法
4.6.2 基于线性插值物品的推荐算法
4.6.3 基于聚类的推荐算法
4.7 对比其他推荐算法
4.7.1 为Mahout引入基于内容的技术
4.7.2 深入理解基于内容的推荐算法
4.8 对比基于模型的推荐算法
4.9 小结
第5章 让推荐程序实用化
5.1 分析来自约会网站的样本数据
5.2 找到一个有效的推荐程序
5.2.1 基于用户的推荐程序
5.2.2 基于物品的推荐程序
5.2.3 slope-one推荐程序
5.2.4 评估查准率和查全率
5.2.5 评估性能
5.3 引入特定域的信息
5.3.1 采用一个定制的物品相似性度量
5.3.2 基于内容进行推荐
5.3.3 利用IDRescorer修改推荐结果
5.3.4 在IDRescorer中引入性别
5.3.5 封装一个定制的推荐程序
5.4 为匿名用户做推荐
5.4.1 利用PlusAnonymousUser-DataModel处理临时用户
5.4.2 聚合匿名用户
5.5 创建一个支持Web访问的推荐程序
5.5.1 封装WAR文件
5.5.2 测试部署
5.6 更新和监控推荐程序
5.7 小结
第6章 分布式推荐
6.1 分析Wikipedia数据集
6.1.1 挑战规模
6.1.2 分布式计算的优缺点
6.2 设计一个基于物品的分布式推荐算法
6.2.1 构建共现矩阵
6.2.2 计算用户向量
6.2.3 生成推荐结果
6.2.4 解读结果
6.2.5 分布式实现
6.3 基于MapReduce实现分布式算法
6.3.1 MapReduce简介
6.3.2 向MapReduce转换:生成用户向量
6.3.3 向MapReduce转换:计算共现关系
6.3.4 向MapReduce转换:重新思考矩阵乘
6.3.5 向MapReduce转换:通过部分乘积计算矩阵乘
6.3.6 向MapReduce转换:形成推荐
6.4 在Hadoop上运行MapReduce
6.4.1 安装Hadoop
6.4.2 在Hadoop上执行推荐
6.4.3 配置mapper和reducer
6.5 伪分布式推荐程序
6.6 深入理解推荐
6.6.1 在云上运行程序
6.6.2 考虑推荐的非传统用法
6.7 小结
第二部分 聚类
第7章 聚类介绍
7.1 聚类的基本概念
7.2 项目相似性度量
7.3 Hello World:运行一个简单的聚类示例
7.3.1 生成输入数据
7.3.2 使用Mahout聚类
7.3.3 分析输出结果
7.4 探究距离测度
7.4.1 欧氏距离测度
7.4.2 平方欧氏距离测度
7.4.3 曼哈顿距离测度
7.4.4 余弦距离测度
7.4.5 谷本距离测度
7.4.6 加权距离测度
7.5 在简单示例上使用各种距离测度
7.6 小结
第8章 聚类数据的表示
8.1 向量可视化
8.1.1 将数据转换为向量
8.1.2 准备Mahout所用的向量
8.2 将文本文档表示为向量
8.2.1 使用TF-IDF改进加权
8.2.2 通过n-gram搭配词考察单词的依赖性
8.3 从文档中生成向量
8.4 基于归一化改善向量的质量
8.5 小结
第9章 Mahout中的聚类算法
9.1 k-means聚类
9.1.1 关于k-means你需要了解的
9.1.2 运行k-means聚类
9.1.3 通过canopy聚类寻找最佳k值
9.1.4 案例学习:使用k-means对新闻聚类
9.2 超越k-means: 聚类技术概览
9.2.1 不同类型的聚类问题
9.2.2 不同的聚类方法
9.3 模糊k-means聚类
9.3.1 运行模糊k-means聚类
9.3.2 多模糊会过度吗
9.3.3 案例学习:用模糊k-means对新闻进行聚类
9.4 基于模型的聚类
9.4.1 k-means的不足
9.4.2 狄利克雷聚类
9.4.3 基于模型的聚类示例
9.5 用LDA进行话题建模
9.5.1 理解LDA
9.5.2 对比TF-IDF与LDA
9.5.3 LDA参数调优
9.5.4 案例学习:寻找新闻文档中的话题
9.5.5 话题模型的应用
9.6 小结
第10章 评估并改善聚类质量
10.1 检查聚类输出
10.2 分析聚类输出
10.2.1 距离测度与特征选择
10.2.2 簇间与簇内距离
10.2.3 簇的混合与重叠
10.3 改善聚类质量
10.3.1 改进文档向量生成过程
10.3.2 编写自定义距离测度
10.4 小结
第11章 将聚类用于生产环境
11.1 Hadoop下运行聚类算法的快速入门
11.1.1 在本地Hadoop集群上运行聚类算法
11.1.2 定制Hadoop配置
11.2 聚类性能调优
11.2.1 在计算密集型操作中避免性能缺陷
11.2.2 在I/O密集型操作中避免性能缺陷
11.3 批聚类及在线聚类
11.3.1 案例分析:在线新闻聚类
11.3.2 案例分析:对维基百科文章聚类
11.4 小结
第12章 聚类的实际应用
12.1 发现Twitter上的相似用户
12.1.1 数据预处理及特征加权
12.1.2 避免特征选择中的常见陷阱
12.2 为Last.fm上的艺术家推荐标签
12.2.1 利用共现信息进行标签推荐
12.2.2 构建Last.fm艺术家词典
12.2.3 将Last.fm标签转换成以艺术家为特征的向量
12.2.4 在Last.fm数据上运行k-means算法
12.3 分析Stack Overflow数据集
12.3.1 解析Stack Overflow数据集
12.3.2 在Stack Overflow中发现聚类问题
12.4 小结
第三部分 分类
第13章 分类
13.1 为什么用Mahout做分类
13.2 分类系统基础
13.2.1 分类、推荐和聚类的区别
13.2.2 分类的应用
13.3 分类的工作原理
13.3.1 模型
13.3.2 训练、测试与生产
13.3.3 预测变量与目标变量
13.3.4 记录、字段和值
13.3.5 预测变量值的4种类型
13.3.6 有监督学习与无监督学习
13.4 典型分类项目的工作流
13.4.1 第一阶段工作流:训练分类模型
13.4.2 第二阶段工作流:评估分类模型
13.4.3 第三阶段工作流:在生产中使用模型
13.5 循序渐进的简单分类示例
13.5.1 数据和挑战
13.5.2 训练一个模型来寻找颜色填充:初步设想
13.5.3 选择一个学习算法来训练模型
13.5.4 改进填充颜色分类器的性能
13.6 小结
第14章 训练分类器
14.1 提取特征以构建分类器
14.2 原始数据的预处理
14.2.1 原始数据的转换
14.2.2 一个计算营销的例子
14.3 将可分类数据转换为向量
14.3.1 用向量表示数据
14.3.2 用Mahout API做特征散列
14.4 用SGD对20 Newsgroups数据集进行分类
14.4.1 开始:数据集预览
14.4.2 20 Newsgroups数据特征的解析和词条化
14.4.3 20 Newsgroups数据的训练代码
14.5 选择训练分类器的算法
14.5.1 非并行但仍很强大的算法:SGD和SVM
14.5.2 朴素分类器的力量:朴素贝叶斯及补充朴素贝叶斯
14.5.3 精密结构的力量:随机森林算法
14.6 用朴素贝叶斯对20 Newsgroups数据分类
14.6.1 开始:为朴素贝叶斯提取数据
14.6.2 训练朴素贝叶斯分类器
14.6.3 测试朴素贝叶斯模型
14.7 小结
第15章 分类器评估及调优
15.1 Mahout中的分类器评估
15.1.1 获取即时反馈
15.1.2 确定分类"好"的含义
15.1.3 认识不同的错误代价
15.2 分类器评估API
15.2.1 计算AUC
15.2.2 计算混淆矩阵和熵矩阵
15.2.3 计算平均对数似然
15.2.4 模型剖析
15.2.5 20 Newsgroups语料上SGD分类器的性能指标计算
15.3 分类器性能下降时的处理
15.3.1 目标泄漏
15.3.2 特征提取崩溃
15.4 分类器性能调优
15.4.1 问题调整
15.4.2 分类器调优
15.5 小结
第16章 分类器部署
16.1 巨型分类系统的部署过程
16.1.1 理解问题
16.1.2 根据需要优化特征提取过程
16.1.3 根据需要优化向量编码
16.1.4 部署可扩展的分类器服务
16.2 确定规模和速度需求
16.2.1 多大才算大
16.2.2 在规模和速度之间折中
16.3 对大型系统构建训练流水线
16.3.1 获取并保留大规模数据
16.3.2 非规范化及下采样
16.3.3 训练中的陷阱
16.3.4 快速读取数据并对其进行编码
16.4 集成Mahout分类器
16.4.1 提前计划:集成中的关键问题
16.4.2 模型序列化
16.5 案例:一个基于Thrift的分类服务器
16.5.1 运行分类服务器
16.5.2 访问分类器服务
16.6 小结
第17章 案例分析--Shop It To Me
17.1 Shop It To Me选择Mahout的原因
17.1.1 Shop It To Me公司简介
17.1.2 Shop It To Me需要分类系统的原因
17.1.3 对Mahout向外扩展
17.2 邮件交易系统的一般结构
17.3 训练模型
17.3.1 定义分类项目的目标
17.3.2 按时间划分
17.3.3 避免目标泄漏
17.3.4 调整学习算法
17.3.5 特征向量编码
17.4 加速分类过程
17.4.1 特征向量的线性组合
17.4.2 模型得分的线性扩展
17.5 小结
附录A JVM调优
附录B Mahout数学基础
附录C 相关资源
索引
— 没有更多了 —
以下为对购买帮助不大的评价