正確答案是A: Sigmoid函數(shù), B: ReLU函數(shù), 和C: tanh雙曲正弦函數(shù)。
分析:
A: Sigmoid函數(shù)是一種常用的激活函數(shù),尤其是在早期的神經(jīng)網(wǎng)絡(luò)中。它將輸入值壓縮到0到1之間,使其適合用于輸出概率的場(chǎng)景。然而,Sigmoid函數(shù)存在梯度消失問題,在深層網(wǎng)絡(luò)中效果不佳。
B: ReLU函數(shù)(Rectified Linear Unit)是目前最流行的激活函數(shù)之一,尤其是在深度神經(jīng)網(wǎng)絡(luò)中。ReLU函數(shù)的優(yōu)點(diǎn)是計(jì)算簡單,并且能夠有效緩解梯度消失問題。然而,它在某些情況下可能導(dǎo)致神經(jīng)元“死亡”,即輸出恒為零。
C: tanh雙曲正弦函數(shù)也是一種常用的激活函數(shù)。與Sigmoid函數(shù)類似,tanh函數(shù)將輸入值壓縮到-1到1之間。相較于Sigmoid函數(shù),tanh函數(shù)的輸出均值為0,因此在某些情況下可以加速收斂。不過,tanh函數(shù)同樣存在梯度消失問題。
D: MSE函數(shù)(Mean Squared Error,均方誤差)不是激活函數(shù),而是一種常用的損失函數(shù),主要用于回歸問題中衡量模型預(yù)測(cè)值與真實(shí)值之間的差異。
綜上所述,A、B和C是神經(jīng)網(wǎng)絡(luò)中常用的激活函數(shù),而D是損失函數(shù)。