BP神经网络(五)——激活函数的选择

编程入门 行业动态 更新时间:2024-10-12 18:17:08

BP<a href=https://www.elefans.com/category/jswz/34/1769690.html style=神经网络(五)——激活函数的选择"/>

BP神经网络(五)——激活函数的选择

对于隐藏层的激活函数,必须为非线性函数,因为线性函数的组合本身就是线性函数,所以除非引入非线性,否则无法计算更复杂的函数,即使网络层数再多也不行。
激活函数的种类:relu激活函数,sigmoid激活函数,tanh激活函数等。
对于隐藏层一般使用relu激活函数,对于输出层如果用于分类则采用sigmoid激活函数,用于回归则采用线性激活函数。

更多推荐

BP神经网络(五)——激活函数的选择

本文发布于:2024-03-14 08:26:05,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1736053.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:神经网络   函数   BP

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!