亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

神經網絡簡介

難度初級
時長50分
學習人數
綜合評分8.40
69人評價 查看評價
8.4 內容實用
8.5 簡潔易懂
8.3 邏輯清晰
  • 網絡梯度下降

    查看全部
  • 全部訓練損失

    查看全部
    0 采集 收起 來源:07損失函數

    2018-08-02

  • 三種激勵函數:Sigmoid,tanh,ReLU

    查看全部
    0 采集 收起 來源:06激勵函數

    2018-08-02

  • 神經網絡包含

    查看全部
    0 采集 收起 來源:03課程安排

    2018-08-02

  • 邏輯回歸模型

    查看全部
    0 采集 收起 來源:05邏輯回歸

    2018-07-25

  • 神經元

    線性組合

    非線性處理

    查看全部
    1 采集 收起 來源:04網絡結構

    2018-07-25

  • 網絡結構

    激勵函數

    損失函數

    梯度下降

    查看全部
    0 采集 收起 來源:03課程安排

    2018-07-25

  • 用激勵函數正向運算輸入值得到損失,若損失過大,用梯度下降函數對W,b進行調整

    重復正向運算,知道損失達到最小

    查看全部
    1 采集 收起 來源:12課程總結

    2018-07-22

  • 左邊利用輸入值通過每一層網絡的結構計算出下一層輸出

    直到結束,計算出損失

    右邊通過損失函數不斷更新W,b,知道計算出最小的損失函數

    查看全部
    0 采集 收起 來源:11訓練過程

    2018-07-22

  • 觀察神經網絡過程形成較為直觀的理解


    梯度下降逆向更新W,b

    一邊正向一邊逆向,重復這個流程

    https://img1.sycdn.imooc.com//5b5450610001f68106190382.jpg

    訓練過程

    左邊成為正向傳播

    通過輸入值按照每一層網絡的結構計算出下一層的輸出

    直到結束,結束的時候計算出整個網絡的損失


    右側是一個參數(W,b)調校的過程

    通常會用到左邊的W,b參數,而這些參數通常是會緩存的,這樣會提高我們的運算效率(z^n,W^n,b^n)

    實際上是逐步更新參數的過程

    然后用新的參數載重復上面的過程

    知道我們的損失函數趨向于一個最小值

    參數全部算好然后一次性更新

    查看全部
    0 采集 收起 來源:11訓練過程

    2018-07-22

  • 神經網絡的梯度下降——反向傳播

    通過運算結果,逆向調節每一層的W,b,從而使整個神經鏈條達到一種最佳的狀態

    https://img1.sycdn.imooc.com//5b530ae20001447a03740207.jpg

    通過w,b的線性運算和激勵函數的操作,在每一層上通過這兩部得到下一層的輸入值

    https://img1.sycdn.imooc.com//5b530e200001dd1404240314.jpg

    倒數第二層不需要調校

    查看全部
  • 神經網絡的網絡向量化

    神經網絡的向前傳播、運算、預測——神經網絡的網絡向量化,對向量化進行計算的過程

    https://img1.sycdn.imooc.com//5b53081d0001b01205900374.jpg

    https://img1.sycdn.imooc.com//5b5308d30001753807490317.jpg

    https://img1.sycdn.imooc.com//5b5308f50001785104310166.jpghttps://img1.sycdn.imooc.com//5b53091f0001037a07280109.jpg


    查看全部
    0 采集 收起 來源:09網絡向量化

    2018-07-21

  • 邏輯回歸中的梯度下降

    w和b決定函數的樣子

    https://img1.sycdn.imooc.com//5b5305800001cad704500271.jpg

    w和b同步更新

    α是學習的速率,避免計算太快,錯過合適的W,

    w=w-a*(損失函數對w進行求導)

    查看全部
    0 采集 收起 來源:08梯度下降

    2018-07-21

  • 單次訓練損失

    https://img1.sycdn.imooc.com//5b5301ce0001afb307540067.jpg

    全部訓練損失(就是把單次訓練損失加起來)

    https://img1.sycdn.imooc.com//5b5302680001550007430081.jpg


    查看全部
    0 采集 收起 來源:07損失函數

    2018-07-21

  • 激勵函數:

    作用:提供規?;姆蔷€性能力

    包括:Sigmoid、tanh、ReLU等

    Sigmoid函數適用于結果為判斷是非的場合,但由于其對稱中心在(0, 0.5),還需要進行數據中心化,由此提出了其改進函數tanh

    Sigmiod和tanh的缺點是當數值很大或很小時,結果變化比較平緩,由此提出了ReLU函數,

    而ReLU函數作為最普遍使用的激勵函數,我們有時會使用斜率為負但是絕對值比正數小的線

    查看全部
    0 采集 收起 來源:06激勵函數

    2018-07-21

舉報

0/150
提交
取消
課程須知
1、機器學習基礎知識 2、直觀講解神經網絡核心原理
老師告訴你能學到什么?
1、神經網絡的歷史 2、激勵函數,損失函數,梯度下降等機器學習概念 3、神經網絡的學習訓練過程 4、直觀分析反向傳播算法

微信掃碼,參與3人拼團

微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號

友情提示:

您好,此課程屬于遷移課程,您已購買該課程,無需重復購買,感謝您對慕課網的支持!