多目标贝叶斯优化 面向大模型的超参调优理论
¥
46.5
7.9折
¥
59
全新
库存10件
作者徐华,王洪燕,袁源 著
出版社清华大学出版社
ISBN9787302667513
出版时间2024-07
装帧平装
开本16开
定价59元
货号1203388147
上书时间2024-11-26
商品详情
- 品相描述:全新
- 商品描述
-
目录
第1章概述
1.1研究背景
1.2昂贵的多目标优化问题
1.3研究现状分析
1.3.1低维多目标贝叶斯优化方法
1.3.2高维多目标贝叶斯优化方法
1.4本书的主要研究内容
1.5本书的结构安排
第2章背景知识
2.1基本概念
2.2贝叶斯优化
2.3高斯过程
2.3.1均值函数和核函数选择
2.3.2超参数选择
2.4获取函数
2.4.1期望改进
2.4.2知识梯度
2.4.3熵搜索和预测熵搜索
2.4.4多步最优获取函数
2.5标准合成的多目标测试问题
2.6多目标优化方法的评价指标
2.7本章小结
……
内容摘要
以大规模深度学习模型超参调优为代表的评估代价昂贵的多目标优化问题被称为昂贵的多目标优化问题(Expensive MOPs)。昂贵的多目标优化问题广泛存在于现实世界中的不同应用领域。其优化目标通常为黑盒函数,且求得其真实目标函数值的评估代价高昂;而现实世界的有限资源和成本只允许求解器进行有限次函数评估,用于搜索该类问题的帕累托前沿。多目标贝叶斯优化方法能有效地求解该类问题,其利用高斯过程代理模型近似原优化问题以降低函数评估成本,并使用能平衡利用和探索之间关系的获取函数推荐候选解。本书关注大模型超参调优这类昂贵的多目标优化问题,针对其经典的求解方法(贝叶斯优化方法)开展理论方法探索。针对低维和高维决策空间中的并行化函数评估问题、获取函数优化效率问题以及维度灾难和边界问题,本书对多目标贝叶斯优化方法进行四方面的研究,旨在有效地求解低维和高维昂贵的多目标优化问题。
本书可作为当前大模型超参调优理论研究与应用实践的指导书,也可作为演化学习、智能优化、大数据及人工智能等相关专业的教材和参考书。
— 没有更多了 —
以下为对购买帮助不大的评价