4 回答

TA貢獻1798條經驗 獲得超7個贊
(1)對于深度神經網絡,中間的隱層的輸出必須有一個激活函數。否則多個隱層的作用和沒有隱層相同。這個激活函數不一定是sigmoid,常見的有sigmoid、tanh、relu等。
(2)對于二分類問題,輸出層是sigmoid函數。這是因為sigmoid函數可以把實數域光滑的映射到[0,1]空間。函數值恰好可以解釋為屬于正類的概率(概率的取值范圍是0~1)。另外,sigmoid函數單調遞增,連續可導,導數形式非常簡單,是一個比較合適的函數
(3)對于多分類問題,輸出層就必須是softmax函數了。softmax函數是sigmoid函數的推廣

TA貢獻1873條經驗 獲得超9個贊
1.新建一個m文件,把function函數復制進去;然后保存(名稱應該是自動生成的,即為sinh.m,不過最好不要用和系統中的文件一樣的名稱,可以先help查看一下matlab是否有和sinh重復的名稱,若有的話,得把function函數改個名稱),保存的地址為當前工作目錄。
2.在命令窗口調用function函數:
sinh(5)

TA貢獻1802條經驗 獲得超5個贊
The tanh activation usually works better than sigmoid activation function for hidden units because the mean of its output is closer to zero, and so it centers the data better for the next layer.
tanh函數的輸出更利于下一層神經元的處理,尤其是數據的集中化;
不過在一些二分類的場景,還是sigmod更適合作為輸出層
添加回答
舉報