书籍作者:蓝光辉 | ISBN:9787111724254 |
书籍语言:简体中文 | 连载状态:全集 |
电子书格式:pdf,txt,epub,mobi,azw3 | 下载次数:2940 |
创建日期:2024-04-20 | 发布日期:2024-04-20 |
运行环境:PC/Windows/Linux/Mac/IOS/iPhone/iPad/Kindle/Android/安卓/平板 |
本书对优化算法的理论和研究进展进行了系统的梳理,旨在帮助读者快速了解该领域的发展脉络,掌握必要的基础知识,进而推进前沿研究工作。本书首先介绍流行的机器学习模式,对重要的优化理论进行回顾,接着重点讨论已广泛应用于优化的算法,以及有潜力应用于大规模机器学习和数据分析的算法,包括一阶方法、随机优化方法、随机和分布式方法、非凸随机优化方法、无投影方法、算子滑动和分散方法等。
本书适合对机器学习、人工智能和数学编程感兴趣的读者阅读参考。
蓝光辉(Guanghui Lan) 佐治亚理工学院工业与系统工程学院教授,之前曾任教于佛罗里达大学工业与系统工程系。研究方向为随机优化和非线性规划的理论、算法与应用。曾获NSF CAREER奖、INFORMS青年教师论文奖一等奖、INFORMS Computing Society(ICS)奖等。目前担任Computational Optimization and Applications、Mathematical Programming和SIAM Journal on Optimization等期刊的副主编。博士毕业于佐治亚理工学院。
优化方法的研究面临着数据的高维度、不确定性和非凸性等问题,同时,实时求解、分布式处理等需求的日益增多也给优化方法的应用带来了困难。
近年来,优化方法的研究已取得了重要进展,本书对这些工作进行了系统的梳理,旨在帮助读者快速了解该领域的发展脉络,掌握必要的基础知识,进而推进前沿研究工作。
本书首先介绍流行的机器学习模式,对重要的优化理论进行回顾,接着重点讨论已广泛应用于优化的算法,以及有潜力应用于大规模机器学习和数据分析的算法,包括一阶方法、随机优化方法、随机和分布式方法、非凸随机优化方法、无投影方法、算子滑动和分散方法等。全书从基础知识开始讲解,逐步进阶到为机器学习精心设计的复杂算法,涵盖适用于不同场景的算法方案,适合对机器学习、人工智能和数学编程感兴趣的读者参考。
前 言Firstorder and Stochastic Optimization Methods for Machine Learning在数据科学中,优化从一开始就扮演着重要的角色,许多统计和机器学习模型的分析与求解方法都依赖于优化。近年来学界对计算数据分析中的优化兴趣激增,相关研究也面临着一些重大挑战:在所研究的问题中,常常会遇到高维度、庞大的数据量、固有的不确定性以及几乎不可避免的非凸性等问题;同时,越来越多的问题有实时求解的需求,还有许多问题有在分布式环境下处理的需求。所有这些都成为当前优化方法论发展中面临的重大障碍。
在过去10年左右的时间里,人们在设计和分析优化算法来解决这些挑战方面取得了重要的进展。然而,相关工作分散在大量不同学科和方向的文献中。由于对这些进展缺乏系统的梳理,年轻的研究人员要涉足这一领域也就十分困难。他们需要建立必要的基础,了解相关发展的现状,进而推动这一令人兴奋的研究领域的前沿工作。在本书中,我试图把最近的这些进展以一种比较有条理的方式展现出来,主要关注的是已被广泛应用于优化的算法,或(在我看来)未来有潜力应用于大规模机器学习和数据分析的算法。这些算法包括相当多的一阶方法、随机优化方法、随机和分布式方法、非凸随机优化方法、无投影方法以及算子滑动和分散方法等。我的目的是介绍能够在不同场合提供最佳性能保证的基本算法方案。在讨论这些算法之前,先简要介绍了一些流行的机器学习模型以启发读者,同时,也对一些重要的优化理论进行了回顾,为读者特别是初学者提供良好的理论基础。
本书适合对优化方法及其在机器学习或机器智能中的应用感兴趣的研究生和高年级本科生阅读,也可以供资深的研究人员参考。这本书的初稿已被佐治亚理工学院用作高年级本科生和博士生的参考资料。对于高年级本科生一个学期的课程,我建议学习内容涵盖1.1、1.2、1.4~1.7、2.1、2.2、3.1、3.2、4.1和7.1节,并鼓励学生完成一个课程项目。对于博士生一个学期的课程,我建议包括1.1~1.7、2.1~2.4、3.1~3.6、4.1~4.3、5.1、5.3、5.4、6.1~6.5和7.1~7.4节,并鼓励学生阅读和讨论本书中或文献中未涉及的材料。
本书中所选的很多材料都来自我们在过去几年里的研究工作。非常感谢我的博士导师、已毕业的博士生、博士后和其他合作者。衷心感谢Arkadi Nemirovski,他指导我走过了学术生涯的不同阶段,成就了今天的我。Alex Shapiro对本书的写作提供了很多指导,并不断提醒我进度。如果没有他的鼓励,我可能已经放弃了这一努力。非常感谢Renato Monteiro的善良和支持。本书的写作过程也让我重温了与合作者共同工作时的愉快记忆,包括一些非常敬业的同事,如Yunmei Chen和Hongchao Zhang,还有一些非常有才华的已毕业的学生和博士后,如Cong Dang、Qi Deng、Saeed Ghadimi、Soomin Lee、Yuyuan Ouyang、Wei Zhang和Yi Zhou。非常幸运的是,我现在的学生也抽出时间来帮助我做了一些工作。
Guanghui Lan
2019年5月于亚特兰大
目 录Firstorder and Stochastic Optimization Methods for Machine Learning译者序
前言第1章 机器学习模型 1 1.1 线性回归1
1.2 逻辑回归3
1.3 广义线性模型5
1.3.1 指数分布族5
1.3.2 模型构建5
1.4 支持向量机8
1.5 正则化、Lasso回归和
岭回归11
1.6 群体风险最小化11
1.7 神经网络12
1.8 练习和注释14第2章 凸优化理论15 2.1 凸集15
2.1.1 定义和例子15
2.1.2 凸集上的投影16
2.1.3 分离定理17
2.2 凸函数20
2.2.1 定义和例子20
2.2.2 可微凸函数21
2.2.3 不可微凸函数21
2.2.4 凸函数的Lipschitz
连续性23
2.2.5 凸优化的最优性条件24
2.2.6 表示定理与核25
2.3 拉格朗日对偶26
2.3.1 拉格朗日函数与
对偶性26
2.3.2 强对偶性的证明27
2.3.3 鞍点29
2.3.4 KarushKuhnTucker
条件29
2.3.5 对偶支持向量机31
2.4 LegendreFenchel共轭对偶32
2.4.1 凸函数的闭包32
2.4.2 共轭函数33
2.5 练习和注释35第3章 确定性凸优化37 3.1 次梯度下降法37
3.1.1 一般非光滑凸问题38
3.1.2 非光滑强凸问题39
3.1.3 光滑凸问题41
3.1.4 光滑强凸问题42
3.2 镜面下降法43
3.3 加速梯度下降法46
3.4 加速梯度下降法的博弈论
解释50
3.5 非光滑问题的光滑方案52
3.6 鞍点优化的原始-对偶方法54
3.6.1 一般双线性鞍点问题57
3.6.2 光滑双线性鞍点问题57
3.6.3 光滑强凸双线性鞍点
问题58
3.6.4 线性约束问题59
3.7 乘子交替方向法61
3.8 变分不等式的镜面-邻近
方法63
3.8.1 单调变分不等式64
3.8.2 广义单调变分不等式66
3.9 加速水平法68
3.9.1 非光滑、光滑和弱光滑
问题68
3.9.2 鞍点问题76
3.10 练习和注释81第4章 随机凸优化83 4.1 随机镜面下降法83
4.1.1 一般非光滑凸函数84
4.1.2 光滑凸问题87
4.1.3 准确性证书90
4.2 随机加速梯度下降法95
4.2.1 无强凸性问题100
4.2.2 非光滑强凸问题103
4.2.3 光滑强凸问题104
4.2.4 准确性证书109
4.3 随机凹凸鞍点问题111
4.3.1 通用算法框架112
4.3.2 极小极大随机问题115
4.3.3 双线性矩阵博弈117
4.4 随机加速原始-对偶方法119
4.4.1 加速原始-对偶方法121
4.4.2 随机双线性鞍点问题129
4.5 随机加速镜面-邻近方法140
4.5.1 算法框架141
4.5.2 收敛性分析142
4.6 随机块镜面下降方法154
4.6.1 非光滑凸优化155
4.6.2 凸复合优化164
4.7 练习和注释171第5章 凸有限和及分布式
优化173 5.1 随机原始-对偶梯度法173
5.1.1 多人共轭空间博弈的
重新表述176
5.1.2 梯度计算的随机化177
5.1.3 强凸问题的收敛性179
5.1.4 随机化方法的复杂度
下界189
5.1.5 对非强凸性问题的
推广193
5.2 随机梯度外插法197
5.2.1 梯度外插方法198
5.2.2 确定性有限和问题204
5.2.3 随机有限和问题213
5.2.4 分布式实现218
5.3 降低方差的镜面下降法220
5.3.1 无强凸性的光滑问题223
5.3.2 光滑和强凸问题225
5.4 降低方差加速梯度下降法226
5.4.1 无强凸性的光滑问题229
5.4.2 光滑和强凸问题233
5.4.3 满足错误界条件的
问题238
5.5 练习和注释240第6章 非凸优化241 6.1 无约束非凸随机优化法241
6.1.1 随机一阶方法243
6.1.2 随机零阶方法251
6.2 非凸随机复合优化法260
6.2.1 邻近映射的一些性质261
6.2.2 非凸镜面下降法263
6.2.3 非凸随机镜面下降法264
6.2.4 复合问题的随机零阶
方法275
6.3 非凸随机块镜面下降法279
6.4 非凸随机加速梯度下降法286
6.4.1 非凸加速梯度下降法287
6.4.2 随机加速梯度下降法298
6.5 非凸降低方差镜面下降法310
6.5.1 确定性问题的基本
求解方案310
6.5.2 随机优化问题的推广313
6.6 随机化加速邻近点方法316
6.6.1 非凸有限和问题317
6.6.2 非凸多块问题327
6.7 练习和注释337第7章 无投影方法 338 7.1 条件梯度法338
7.1.1 经典条件梯度
还不错耶!值得阅读。
2023-09-11 20:53:11
书挺不错,印刷业挺好
2023-07-03 21:50:47
本书对优化算法的理伦和研究进服进行丁系统的梳理,旨在捃助读者快速了解该饭城的发服胁络,樂掘必要的基的知识,进而推进前沿研究工作。本书首先介绍流行的机器学 可模式,对蛋要的优化理论进行回顾,按着亚点讨论已广泛应用于优化的算法,以及有溝力应用于大规機机器学习和数据分析的算法,包括一阶方法、随机优化方法、随机和分布式力法、非凸随机优化方法、无投彤方法、算子附动和分散方法等。 本书适合对机器学习、人工智能和数学编程感兴趣的读者阅读参考。 irst published in English under the title ürst-order and Stochastic Optimization Methods for Machine Learning y Guanghui Lan. opyright &****; Springer Nature Switzerland AG, 2020. his edition ha***een translated and published under license from pringer Nature Switzerland AG. 得以任何方式复制成妙裝本
2023-07-02 23:18:34
图书不错,物美价廉,送货方便。
2023-07-21 06:40:57
标题:机器学习中的一阶与随机优化方法 在机器学习领域,优化算法是训练模型的核心。一阶与随机优化方法是两种常用的优化技术,它们在不同情境下都有各自的优势和应用。本文将介绍一阶与随机优化方法的基本概念以及它们在机器学习中的应用。 ## 一阶优化方法 一阶优化方法是指在优化过程中仅使用一阶导数信息(梯度信息)的方法。最常见的一阶优化算法之一是梯度下降法。梯度下降法通过计算损失函数关于模型参数的梯度,并沿着梯度的反方向更新参数,以降低损失函数的值。这一过程重复进行,直到收敛到损失函数的最小值或达到预定的停止条件。 一阶优化方法的优点在于其简单性和稳定性。它们通常能够在凸优化问题中找到全局最小值,并且在训练小型数据集时表现良好。但对于大规模数据集或高维模型,一阶方法可能会收敛较慢,因为它们需要计算梯度并更新参数的所有元素。 ## 随机优化方法 随机优化方法是一类使用随机采样的优化算法。最著名的随机优化方法之一是随机梯度下降(Stochastic Gradient Descent,SGD)。与传统的梯度下降不同,SGD每次只使用一个训练样本来估计梯度,并更新参数。这种随机性使得SGD在大规模数据集上更具优势,因为它不需要在每次迭代中计算整个数据集的梯度。 随机优化方法的一个显著优势是速度。它们通常比一阶方法更快地收敛,因为每次迭代的计算成本较低。然而,由于随机性质,它们的收敛路径可能更不稳定,需要更仔细的超参数调整。 ## 应用领域 一阶优化方法通常在小型数据集和低维模型的训练中表现良好,例如线性回归或逻辑回归。随机优化方法在深度学习领域广泛应用,因为它们可以高效地处理大规模神经网络和海量训练数据。 另外,一阶和随机优化方法也可以结合使用,例如Mini-batch梯度下降,它在每个迭代中使用小批量样本来估计梯度,既兼顾了一阶方法的稳定性又具备随机方法的速度。 ## 结论 在机器学习中,一阶与随机优化方法是两类重要的优化技术,它们在不同的问题和情境下都有各自的优势。选择合适的优化算法取决于数据集的大小、模型的复杂度和实际应用需求。因此,在实际应用中,熟悉这些方法的特点和原理,以及合理选择和调整优化算法,对于成功训练高性能的机器学习模型至关重要。
2023-09-25 10:11:11