什么是神经网络激活函数?
激活函数有助于决定我们是否需要激活神经元。如果我们需要发射一个神经元那么信号的强度是多少。
激活函数是神经元通过神经网络处理和传递信息的机制
为什么在神经网络中需要一个激活函数?
在神经网络中,z是输入节点与节点权值加上偏差的乘积。z的方程与线性方程非常相似,取值范围从+∞到-∞
如果神经元的值可以从负无穷到正无穷变化,那么我们就无法决定是否需要激活神经元。这就是激活函数帮助我们解决问题的地方。
如果z是线性的,那么我们就不能解决复杂的问题。这是我们使用激活函数的另一个原因。
有以下不同类型的激活函数
阀值函数或阶梯激活函数
sigmoid
softmax
tanh或双曲正切
relu
leaky relu
为什么我们需要这么多不同的激活函数,我怎么决定用哪一个呢?
让我们回顾一下每一个激活函数,并了解它们的最佳使用位置和原因。这将帮助我们决定在不同的场景中使用哪个激活函数。
阀值函数或阶梯激活函数
这是最简单的函数
如果z值高于阈值,则激活设置为1或yes,神经元将被激活。
如果z值低于阈值,则激活设置为0或no,神经元不会被激活。
它们对二分类很有用。】
sigmoid激活函数
sigmoid函数是一种光滑的非线性函数,无扭结,形状类似于s形。
它预测输出的概率,因此被用于神经网络和逻辑回归的输出层。
由于概率范围在0到1之间,所以sigmoid函数值存在于0到1之间。
但是如果我们想分类更多的是或不是呢?如果我想预测多个类,比如预测晴天、雨天或阴天,该怎么办?
softmax激活有助于多类分类
softmax激活函数
sigmoid激活函数用于两类或二类分类,而softmax用于多类分类,是对sigmoid函数的一种推广。
在softmax中,我们得到了每个类的概率,它们的和应该等于1。当一个类的概率增大时,其他类的概率减小,因此概率最大的类是输出类。
例如:在预测天气时,我们可以得到输出概率,晴天为0.68,阴天为0.22,雨天为0.20。在这种情况下,我们以最大概率的输出作为最终的输出。在这种情况下我们预测明天将是晴天。
softmax计算每个目标类的概率除以所有可能的目标类的概率。
双曲正切或tanh激活函数
对于双曲tanh函数,输出以0为中心,输出范围在-1和+1之间。
看起来很像sigmoid。实际上双曲tanh是缩放的s形函数。与sigmoid相比,tanh的梯度下降作用更强,因此比sigmoid更受欢迎。
tanh的优点是,负输入将被映射为强负,零输入将被映射为接近零,这在sigmoid中是不会发生的,因为sigmoid的范围在0到1之间
relu
relu本质上是非线性的,这意味着它的斜率不是常数。relu在0附近是非线性的,但斜率不是0就是1,因此具有有限的非线性。
范围是从0到∞
当z为正时,relu的输出与输入相同。当z为0或小于0时,输出为0。因此,当输入为0或低于0时,relu会关闭神经元。
所有的深度学习模型都使用relu,但由于relu的稀疏性,只能用于隐含层。稀疏性指的是空值或“na”值的数量。
当隐层暴露于一定范围的输入值时,relu函数将导致更多的零,从而导致更少的神经元被激活,这将意味着更少的神经网络交互作用。
relu比sigmoid或tanh更积极地打开或关闭神经元
relu的挑战在于,负值变为零降低了模型正确训练数据的能力。为了解决这个问题,我们有leaky relu
leaky relu
a的值通常是0.01
在leaky relu中,我们引入了一个小的负斜率,所以它的斜率不是0。这有助于加快训练。
leaky relu的范围从-∞到+∞
十部门联合发文:九条措施推进“电动化”建设!
曝索尼正研发一款后置六颗摄像头的手机 也是浴霸摄像头
在NVIDIA GPU技术大会上,未来AI汽车开启了虚拟驾驶的大门
Imagination全新OpenGL® SC向3D图形迈出坚实一步
c语言代码错误怎么找
图文详解:神经网络的激活函数
查IC网参展CITE 2020第95届中国电子展:9C305
基于SJA1000和PCA82C250控制器实现汽车控制系统的设计
被国产替代触发?国产替代路上的三道坎
六种常用的工业传感器介绍
卫星互联网:新基建重要发展范畴,为商业航天领域带来了发展机遇
为什么数学家研究纽结?
可立克打出“组合拳”加码光伏及充电桩项目
树莓派涨价太凶,来看看这款完美替代并且性能得到更大提升的研扬科技UP 4000吧
光栅位移测量仪设计 光栅位移传感器测量原理
红米pro2曝光,骁龙660双摄:挑战自家小米6
Facebook毫米波测试创纪录颠覆的是什么?
Fraunhofer IIS全球首次演示安卓手机通过LTE网络实现高清语音通话
小米9SE和华为nova4e哪个好
英创信息技术工控主板对RS485硬件方向控制介绍