车家互联 小程序在智能汽车时代的创新与发展潜力
962
2022-10-05
凸优化:ADMM(Alternating Direction Method of Multipliers)交替方向乘子算法系列之二:Precursors
最近开始对凸优化(convex optimization)中的ADMM(Alternating Direction Method of Multipliers)交替方向乘子算法开始感兴趣,接下来我会写一系列关于ADMM(Alternating Direction Method of Multipliers)交替方向乘子算法的内容。
凸优化:ADMM(Alternating Direction Method of Multipliers)交替方向乘子算法系列之二:Precursors
2- 先导(Precursors)
2-1 对偶上升法(Dual Ascent)
设有如下优化问题:
minf(x) s.t. Ax=b (2.1)
它的拉格朗日形式为:
L(x,λ)=f(x)+λT(Ax−b)
对偶形式为:
g(λ)=infxL(x,λ)=−f∗(−ATλ)−bTλ
其中 f^* 是 f 的共轭函数。
对偶问题为:
max g(λ)
假设强对偶成立,原问题和对偶问题的最优值一样(Assuming that strong duality holds, the optimal values of the primal and dual problems are the same)。
对偶上升法的迭代更新为:
xk+1=argminxL(x,λk) (2.2) x-最小化
λk+1=λk+αk(Axk+1−b) (2.3) 对偶变量更新
其中
αk>0是步长。
2-2 对偶分解法(Dual Decomposition)
假设目标函数是可以分解的,即
f(x)=∑i=1Nfi(xi)
因此,拉格朗日函数可以改写为:
L(x,λ)=∑i=1NLi(xi,λ)=∑i=1N(fi(xi)+λTAixi−(1/N)λTb)
所以它的迭代更新为:
xk+1i=argminxiLi(xi,λk) (2.4)
λk+1=λk+αk(Axk+1−b) (2.5)
2-3 增广拉格朗日(Augmented Lagrangians)
为了增加对偶上升法的鲁棒性和放松函数 f 的强凸约束,我们引入增广拉格朗日(Augmented Lagrangians)形式:
Lρ(x,λ)=f(x)+λT(Ax−b)+(ρ/2)||Ax−b||22 (2.6)
其中惩罚因子
ρ>0。
与 (2.1) 式相比,(2.6) 式只是增加了一个惩罚项。
2-4 乘子法(Method of Multipliers)
对应于的迭代公式为:
xk+1=argminxLρ(x,λk) (2.7)
λk+1=λk+ρ(Axk+1−b) (2.8)
我们称之为乘子法(Method of Multipliers)。
将拉格朗日应用于对偶上升法可以极大地增加它的收敛属性,但是它要求一些代价。当 f 可以分解,而拉格朗日Lρ不能分解的,因此 (13) 式不能对每个xi并行最小化。这意味着乘子法不能被用来分解。于是我们引出ADMM (见 下节)。
参考或延伸材料: [1]Distributed Optimization and Statistical Learning via the Alternating Direction Method of Multipliers [2] 凸优化讲义 [3] A Note on the Alternating Direction Method of Multipliers
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~