从另外一个角度导出Sigmoid函数~

常规思路

Logistic function是形如一下形式的函数,

其实它是来自增长模型,

是一个常微分方程,其解为,

化简一下以上参数,有如下形式函数,

该函数称为Sigmoid函数。在深度学习中常常作为二分类模型的输出或作为门机制使用。

从概率建模角度

深度学习模型的输出$f(x)$​在没有加激活(如softmax)称为logit,即

于是得,

以上是导出Sigmoid函数函数的两种思路,此外还可以从函数光滑逼近的角度来理解。

另外一种导出思路

Heaviside step函数的定义为,

函数光滑近似(1):maximum函数我们知道,

取$\alpha=1, x_1 = x, x_2 = 0$,有特例,

代入到Heaviside step函数的定义中,有

于是获得Sigmoid函数的另外一种导出,$\sigma(x)$是Heaviside step函数的一个光滑近似。

总结

文本提供一种导出Sigmoid函数的思路:为光滑逼近Heaviside step函数,寻找$\max(\boldsymbol{x})$的光滑版本$\max{0, x} = \ln(1 + e^x)$,其导出即为$\sigma(x)$函数。

转载请包括本文地址:https://allenwind.github.io/blog/9998
更多文章请参考:https://allenwind.github.io/blog/archives/