問題詳情

49. 深度神經網路(deep neural networks)的神經元中通常輸出時會經過激發函數(activation function)的轉換,下列針對常用激發函數的敘述何者有誤?
(A) ReLU可以避免過度擬合(overfit)的問題
(B) Sigmoid會有梯度消失(vanishing gradient)的問題
(C) ReLU會發生死亡神經元(dead neural)的問題
(D) Sigmoid會有梯度爆炸問題(vanishing gradient)的問題

參考答案

答案:A
難度:計算中-1
書單:沒有書單,新增

內容推薦

內容推薦