凸优化:ADMM(Alternating Direction Method of Multipliers)交替方向乘子算法系列之二:Precursors

网友投稿 962 2022-10-05

凸优化:ADMM(Alternating Direction Method of Multipliers)交替方向乘子算法系列之二:Precursors

凸优化:ADMM(Alternating Direction Method of Multipliers)交替方向乘子算法系列之二:Precursors

最近开始对凸优化(convex optimization)中的ADMM(Alternating Direction Method of Multipliers)交替方向乘子算法开始感兴趣,接下来我会写一系列关于ADMM(Alternating Direction Method of Multipliers)交替方向乘子算法的内容。

凸优化:ADMM(Alternating Direction Method of Multipliers)交替方向乘子算法系列之二:Precursors

2- 先导(Precursors)

2-1 对偶上升法(Dual Ascent)

设有如下优化问题:

minf(x)   s.t.    Ax=b         (2.1)

它的拉格朗日形式为:

L(x,λ)=f(x)+λT(Ax−b)

对偶形式为:

g(λ)=infxL(x,λ)=−f∗(−ATλ)−bTλ

其中 f^* 是 f 的共轭函数。

对偶问题为:

max g(λ)

假设强对偶成立,原问题和对偶问题的最优值一样(Assuming that strong duality holds, the optimal values of the primal and dual problems are the same)。

对偶上升法的迭代更新为:

xk+1=argminxL(x,λk)             (2.2)    x-最小化

λk+1=λk+αk(Axk+1−b)                (2.3)     对偶变量更新

其中

αk>0是步长。

2-2 对偶分解法(Dual Decomposition)

假设目标函数是可以分解的,即

f(x)=∑i=1Nfi(xi)

因此,拉格朗日函数可以改写为:

L(x,λ)=∑i=1NLi(xi,λ)=∑i=1N(fi(xi)+λTAixi−(1/N)λTb)

所以它的迭代更新为:

xk+1i=argminxiLi(xi,λk)        (2.4)

λk+1=λk+αk(Axk+1−b)        (2.5)

2-3 增广拉格朗日(Augmented Lagrangians)

为了增加对偶上升法的鲁棒性和放松函数 f 的强凸约束,我们引入增广拉格朗日(Augmented Lagrangians)形式:

Lρ(x,λ)=f(x)+λT(Ax−b)+(ρ/2)||Ax−b||22        (2.6)

其中惩罚因子

ρ>0。

与 (2.1) 式相比,(2.6) 式只是增加了一个惩罚项。

2-4 乘子法(Method of Multipliers)

对应于的迭代公式为:

xk+1=argminxLρ(x,λk)        (2.7)

λk+1=λk+ρ(Axk+1−b)        (2.8)

我们称之为乘子法(Method of Multipliers)。

将拉格朗日应用于对偶上升法可以极大地增加它的收敛属性,但是它要求一些代价。当 f 可以分解,而拉格朗日Lρ不能分解的,因此 (13) 式不能对每个xi并行最小化。这意味着乘子法不能被用来分解。于是我们引出ADMM (见 ​​下节​​)。

参考或延伸材料: [1]​​​Distributed Optimization and Statistical Learning via the Alternating Direction Method of Multipliers​​​ [2] ​​​凸优化讲义​​​ [3] ​​​A Note on the Alternating Direction Method of Multipliers​​

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:SpringBoot前后端分离实现验证码操作
下一篇:你所不知道的C#中的细节
相关文章

 发表评论

暂时没有评论,来抢沙发吧~