神经网络中激活函数选择法则

编程入门 行业动态 更新时间:2024-10-26 13:28:31

<a href=https://www.elefans.com/category/jswz/34/1769690.html style=神经网络中激活函数选择法则"/>

神经网络中激活函数选择法则

激活函数选择法则:
1.首先尝试ReLU,速度快,但要注意训练的状态.
2.如果ReLU效果欠佳,尝试Leaky ReLU或Maxout等变种。
3.尝试tanh正切函数(以零点为中心,零点处梯度为1)
4.sigmoid/tanh在RNN(LSTM、注意力机制等)结构中有所应用,作为门控或者概率值.
5.在浅层神经网络中,如不超过4层的,可选择使用多种激励函数,没有太大的影响。

更多推荐

神经网络中激活函数选择法则

本文发布于:2023-07-28 16:02:20,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1243456.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:神经网络   函数   法则

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!