-
主要功能 1 分類識別 f(x) -> cat 圖像、語音(密集型矩陣) 文本(吸收型矩陣) 自動駕駛 語音助手 新聞推送查看全部
-
仿生學產品查看全部
-
損失函數 單次訓練損失查看全部
-
激勵函數:Sigmoid tanh ReLU查看全部
-
損失函數y 對整個邏輯回歸過程逆向進行評判查看全部
-
z(x)線性函數 g(z)非線性函數 激活函數查看全部
-
首先隱含層將x值用z的函數線性表示,然后輸出層中的激活函數g(x)將x由線性組合編程非線性組合查看全部
-
網絡結構?? 激勵函數?? 損失函數?? 梯度下降??查看全部
-
學習查看全部
-
神經網絡分類查看全部
-
神經網絡--邏輯回歸梯度下降查看全部
-
神經網絡--全部訓練損失函數查看全部
-
神經網絡--單次訓練損失函數查看全部
-
神經網絡--激勵函數查看全部
-
一次正向運算就可以得到一個y(預測值),根據這個預測y與真實y之間的差異得到損失函數,每一個損失函數都可表示成一個面,那么這個面上有最大值也有最小值,這是根據地圖下降得到這個面上的最小值(這個點就是預測y與實際y之間的差異最?。?,根據這個點來調整W,b,這是一次計算加調整,神經網絡就是經過多次計算與調整,最終的W,b,趨于穩定,這時就得到了一個最優的邏輯回歸方程(最接近實際問題的),也即得到了這個神經網絡訓練出來的最優模型。查看全部
舉報
0/150
提交
取消