假設,我構建了只有兩層的神經網絡(隱藏層加輸出層)。在隱藏層中Zh=WhX + Bh,然后運用激活函數sigmoid,即Yh = sigmoid(Zh),所以說Yh的范圍也就是0-1。然后Yh作為輸入值傳到輸出層,再次用Zo = WoYh + Bo,然后用激活函數sigmiod,即Yo = sigmoid(Zo),Yo是預測值,也就是說Yo的范圍也是0-1,再算得loss,即loss = (Y0 - 實際值)^2。所以loss的圖像是個碗形,我們就是要找碗的最低點。但是我不理解的是,Yo的取值范圍是 0-1,假設實際值是很大的數,所以用0.1 - 999的平方,和0.1 - 1000的平方幾乎沒有差別,假設實際值都是這么大的數,那豈不是無法計算?初學神經網絡,還請指教,謝謝。
- 0 回答
- 0 關注
- 1779 瀏覽
添加回答
舉報
0/150
提交
取消
