亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

請問關于softmax function是一個怎樣的函數?

請問關于softmax function是一個怎樣的函數?

冉冉說 2019-07-08 10:06:49
softmax function是一個怎樣的函數
查看完整描述

4 回答

?
元芳怎么了

TA貢獻1798條經驗 獲得超7個贊

(1)對于深度神經網絡,中間的隱層的輸出必須有一個激活函數。否則多個隱層的作用和沒有隱層相同。這個激活函數不一定是sigmoid,常見的有sigmoid、tanh、relu等。
(2)對于二分類問題,輸出層是sigmoid函數。這是因為sigmoid函數可以把實數域光滑的映射到[0,1]空間。函數值恰好可以解釋為屬于正類的概率(概率的取值范圍是0~1)。另外,sigmoid函數單調遞增,連續可導,導數形式非常簡單,是一個比較合適的函數
(3)對于多分類問題,輸出層就必須是softmax函數了。softmax函數是sigmoid函數的推廣

查看完整回答
反對 回復 2019-07-14
?
眼眸繁星

TA貢獻1873條經驗 獲得超9個贊

1.新建一個m文件,把function函數復制進去;然后保存(名稱應該是自動生成的,即為sinh.m,不過最好不要用和系統中的文件一樣的名稱,可以先help查看一下matlab是否有和sinh重復的名稱,若有的話,得把function函數改個名稱),保存的地址為當前工作目錄。

2.在命令窗口調用function函數

sinh(5)

查看完整回答
反對 回復 2019-07-14
?
慕后森

TA貢獻1802條經驗 獲得超5個贊

The tanh activation usually works better than sigmoid activation function for hidden units because the mean of its output is closer to zero, and so it centers the data better for the next layer.
tanh函數的輸出更利于下一層神經元的處理,尤其是數據的集中化;
不過在一些二分類的場景,還是sigmod更適合作為輸出層

查看完整回答
反對 回復 2019-07-14
  • 4 回答
  • 0 關注
  • 1465 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號