三面聊到了CNN。。


大家好~
今儿看到有人面试联想,说是氛围感很好,而且难度比较适中。
你们感觉总监面试的内容怎么样?

咱们在后面的文章好好聊聊这个题目。
今天总结一下关于卷积神经网络中的激活函数,也作为大家在学习中的一个总结。
常用的激活函数有以下几种:
1. ReLU(Rectified Linear Unit):
公式:
特点:ReLU 是一种非线性激活函数,将负数部分设为零,对正数部分保持不变。它的计算简单,具有较好的性能,常用于卷积神经网络的隐藏层。
2. Sigmoid:
公式:
特点:Sigmoid函数将输入压缩到(0,1)之间,主要用于二分类问题,但由于存在梯度消失问题,现在在深度神经网络中使用较少。
3. TanH(双曲正切):
公式:
特点:TanH函数将输入压缩到(-1,1)之间,解决了Sigmoid的零中心问题,但仍存在梯度消失问题。
4. Leaky ReLU:
公式:
特点:Leaky ReLU是ReLU的一种变体,对负数部分引入小的斜率(通常为0.01),以解决ReLU对负数的抑制问题。
5. Parametric ReLU (PReLU):
公式:
特点:PReLU引入一个可学习的参数 
,使得负数部分的斜率不再固定,而是可以通过反向传播进行调整。
这些激活函数在卷积神经网络中的选择通常取决于任务的性质、数据的分布以及实际的性能表现。ReLU是最常用的激活函数,但其他激活函数也有在特定场景中取得良好性能的可能。
在面试中,大部分肯定遇到的是ReLU,但是其他也是需要了解的。
都到这里了,点赞~
到顶部