猜你喜欢
机器学习中的交替方向乘子法

机器学习中的交替方向乘子法

书籍作者:林宙辰 ISBN:9787030747587
书籍语言:简体中文 连载状态:全集
电子书格式:pdf,txt,epub,mobi,azw3 下载次数:8763
创建日期:2024-03-20 发布日期:2024-03-20
运行环境:PC/Windows/Linux/Mac/IOS/iPhone/iPad/Kindle/Android/安卓/平板
内容简介
使用机器学习技术解决实际应用问题涉及模型的建立、训练及评估等步骤。优化算法常被用于训练模型的参数,是机器学习的重要组成部分。机器学习模型的训练可以建模成无约束优化问题或带约束优化问题,约束可以为模型增加更多的先验知识。基于梯度的算法(例如加速梯度法、随机梯度法等)是求解无约束优化问题的常用方法,而交替方向乘子法(ADMM)则是求解带约束优化问题的有力工具。
  《机器学习中的交替方向乘子法》概述了机器学习中ADMM的新进展。《机器学习中的交替方向乘子法》全面介绍了各种情形下的ADMM,包括确定性和随机性的算法、集中式和分布式的算法,以及求解凸问题和非凸问题的算法,深入介绍了各个算法的核心思想,并为算法的收敛性和收敛速度提供了详细的证明。
目录
目录 
《大数据与数据科学专著系列》序 
序一
序二
前言
符号表
第1章绪论 1 
1.1 机器学习中的带约束优化问题举例 1 
1.2 ADMM的代表性工作综述 3 
1.3 关于本书 5 
第2章 ADMM的推导 6 
2.1 从拉格朗日视角推导ADMM 6 
2.1.1 对偶上升法 6 
2.1.2 增广拉格朗日法 7 
2.1.3 交替方向乘子法(ADMM) 10 
2.1.4 与分裂布雷格曼算法的联系 11 
2.2 从算子分裂视角推导ADMM 13 
2.2.1 Douglas-Rachford分裂(DRS) 13 
2.2.2 从DRS到ADMM 15 
第3章 确定性凸优化问题中的ADMM 18 
3.1 经典ADMM 18 
3.1.1 收敛性分析 18 
3.1.2 次线性收敛速度 23 
3.1.3 线性收敛速度 27 
3.2 布雷格曼ADMM 31 
3.2.1 次线性收敛速度 35 
3.2.2 线性收敛速度 41 
3.3 加速线性化ADMM 45 
3.3.1 次线性收敛速度 45 
3.3.2 线性收敛速度 63
3.4 特例:线性化增广拉格朗日算法及其加速 70 
3.5 多变量块ADMM 73 
3.5.1 使用高斯回代的ADMM 74 
3.5.2 使用预测-校正的ADMM 78 
3.5.3 使用并行分裂的线性化ADMM 81 
3.5.4 结合串行与并行更新 83 
3.6 变分不等式视角下的ADMM 84 
3.6.1 统一的变分不等式框架 86 
3.6.2 统一的收敛速度分析 89 
3.7 非线性约束问题 90 
第4章 确定性非凸优化问题中的ADMM 97 
4.1 多变量块布雷格曼ADMM 97 
4.1.1 满射条件下的收敛性分析 98 
4.1.2 对目标函数做更多假设下的收敛性分析 102 
4.2 使用指数平均的邻近ADMM 106 
4.3 多线性约束优化问题的ADMM 118 
第5章 随机优化问题中的ADMM 124 
5.1 随机ADMM 125 
5.2 方差缩减 132 
5.3 冲量加速 142 
5.4 非凸随机ADMM及其加速 167 
5.4.1 非凸随机ADMM 167 
5.4.2 SPIDER加速 172 
第6章 分布式优化问题中的ADMM 181 
6.1 中心化优化 181 
6.1.1 ADMM 181 
6.1.2 线性化ADMM 183 
6.1.3 加速线性化ADMM 185 
6.2 去中心化优化 187 
6.2.1 ADMM 187 
6.2.2 线性化ADMM 193 
6.2.3 加速线性化ADMM 194 
6.3 异步分布式ADMM 196 
6.3.1 收敛性分析 197 
6.3.2 线性收敛速度 203
6.4 非凸分布式ADMM 209 
6.5 求解一般线性约束问题的分布式ADMM 210 
第7章 实践中的问题和总结 212 
7.1 实践中的问题 212 
7.1.1 停止条件 212 
7.1.2 惩罚系数的选择 213 
7.1.3 避免过多的辅助变量 215 
7.1.4 非精确求解子问题 215 
7.1.5 其他考虑 216 
7.2 总结 216 
参考文献 217 
附录A 数学基础 224 
A.1 代数与概率 224 
A.2 凸分析 225 
A.3 非凸分析 231 
缩略语 233 
索引 234 
后记 237 
致谢 238 
《大数据与数据科学专著系列》已出版书目 239
短评

交替方向乘子法(Alternating Direction Method of Multipliers,简称ADMM)是一种优化算法,在机器学习和图像处理等领域被广泛应用。它的主要优点是解决了一些传统优化算法的限制,如二次规划、整数规划等问题,而且可以高效地解决大规模数据的问题。 ADMM是一个基于对偶问题的算法,它通过将原问题的约束条件映射到对偶空间中,然后通过求解对偶问题来得到原问题的解。ADMM在解决一些凸优化问题方面表现出色,如最小化凸函数加一个简单集合的形式,这种问题的解有许多应用,如正则化、稀疏编码等。 然而,ADMM的使用也有一些限制。它的收敛速度可能比其他算法慢,特别是对于非凸问题和高维问题,可能会导致收敛速度降低和收敛到次优解。另外,它的公式较为复杂,需要一定的理论基础和实践经验才能使用。 总之,ADMM是一种优秀的优化算法,在机器学习等领域得到了广泛应用。对于一些凸优化问题,它能够有效地解决,并具有一些优点。但是,对于一些非凸问题和高维问题,可能需要采用其他算法来解决。

2023-03-25 11:10:31

交替方向乘子法是解决约束最优化问题的常用方法之一,在机器学习中也得到了广泛的应用。它通过转化为可求解的无约束问题,利用拉格朗日乘子法进行求解,同时采用交替更新的方式加速收敛。 交替方向乘子法的优点在于可以处理大规模高维数据,同时也可以并行化处理,适用于分布式计算环境。此外,它的收敛速度快,精度高,对初始值的选取不敏感,能够处理非凸问题。 不过,交替方向乘子法也存在一些不足之处。首先,它需要手动调节乘子的步长和终止条件,在实际应用中需要一定的经验和技巧。其次,在处理非凸问题时,很容易陷入局部最优解,需要加大求解的复杂度和难度。 总的来说,交替方向乘子法是一种常用有效的优化方法,在机器学习中得到了广泛的应用,但仍需要进一步改进和优化,以适应越来越复杂的实际问题。

2023-03-25 11:10:31

交替方向乘子法(Alternating Direction Method of Multipliers,简称ADMM)是一种用于求解凸优化问题的方法,也被广泛应用于机器学习领域。 ADMM的基本思想是将原问题转化为一系列子问题,并通过交替求解这些子问题来逐步逼近原问题的最优解。在每次迭代中,ADMM先通过增加一个拉格朗日乘子对原问题进行惩罚,然后将其拆分成多个子问题,每个子问题都可以通过现有的优化方法(如线性规划、二次规划等)进行求解。 ADMM具有许多优点,例如可以处理大规模的优化问题、具有分布式计算的能力、能够处理非凸优化问题等。因此,它被广泛用于机器学习领域中的各种问题,如图像处理、模式识别、自然语言处理等。 总之,ADMM是一种强大的优化方法,它在机器学习中有着广泛的应用,能够帮助解决很多复杂的问题。

2023-03-25 11:10:31

产品特色