机器学习优化算法L

编程入门 行业动态 更新时间:2024-10-22 09:45:44

机器学习优化<a href=https://www.elefans.com/category/jswz/34/1770096.html style=算法L"/>

机器学习优化算法L

最近做的科研项目需要用到L-BFGS,这段时间看了不少关于L-BFGS的博客以及论文,在此进行一下小小的总结。

在无约束优化问题中,牛顿法及拟牛顿法是常用的方法,L-BFGS属于拟牛顿法,下面从牛顿法开始说起。

牛顿法,顾名思义,是由伟大的牛顿先生首先提出的(当然有资料显示,在更早前就有人提出相同方法,但可能因为牛顿先生名气过大,冠以他的名字会更火)。我们考虑无约束问题 minf(x)x∈Rn , 牛顿法需要使用Taylor展开,因此我们假设 f(x) 是二阶可微实函数,把 f(x) 在 xk 处Taylor展开并取二阶近似为

f(x)≈f(xk)+∇f(xk)T(x−xk)+12(x−xk)T∇2f(xk)(x−xk)(1)
其中, ∇2f(x) 是 f(x) 在 xk 处的 Hessen矩阵。我们的目标是求 f(x) 的最小值,而导数为0的点极有可能为极值点,故在此对 f(x) 求导,并令其导数为0,即 ∇f(x)=0 ,可得
∇f(x)=∇f(xk)+∇2f(xk)(x−xk)=0(2)
设 ∇2f(x) 可逆,由(2)可以得到牛顿法的迭代公式
xk+1=xk−∇2f(xk)−1∇f(xk)(3) d=−∇2f(xk)−1∇f(xk) 被称为牛顿方向,可以证明牛顿法至少是2阶收敛的,在此由于篇(neng)幅(li)所限,就不进行证明了。

细心的读者可能会发现,我们上面的推导公式,做了很多前提假设,假设了Hessen矩阵 ∇2f(x) 可逆,那么问题来了,如果 f(x) 的Hessen矩阵奇异,或者非奇异但是不正定怎么办?这个时候,我们就需要使用拟牛顿法了,拟牛顿法,同样可以顾名思义,就是模拟牛顿法,用一个近似于 ∇2f(x)−1 的矩阵 Hk+1 来替代 ∇2f(x)−1 。公式(2)在 xk+1 附近有,

∇f(x)=∇f(xk+1)+∇2f(xk+1)(x−xk+1) 令 x=xk ,则有 ∇f(xk)=∇f(xk+1)+∇2f(xk+1)(x−xk+1) 记 pk=xk+1−xk qk=∇f(xk+1)−∇f(xk) 代入则有, pk≈∇2f(xk+1)−1qk 拟牛顿法用 Hk+1 来替代 ∇2f(x)−1 ,即 pk=Hk+1qk(4) 这也被称为拟牛顿条件。在各种拟牛顿法中,一般的构造 Hk+1 的策略是, H

更多推荐

机器学习优化算法L

本文发布于:2024-02-25 09:12:15,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1698475.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:算法   机器

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!