亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

神經網絡簡介

難度初級
時長50分
學習人數
綜合評分8.40
69人評價 查看評價
8.4 內容實用
8.5 簡潔易懂
8.3 邏輯清晰
  • 輸入單個節點的處理也可以有一個預測輸出,通過選定損失函數對預測結果進行評估,并進行反向學習進一步修改線性組合的參數W和b

    查看全部
    0 采集 收起 來源:05邏輯回歸

    2018-07-21

  • 邏輯回歸是一種最簡化的網絡結構

    查看全部
    0 采集 收起 來源:05邏輯回歸

    2018-07-21

  • 神經網絡比普通的函數具有結構性的順序——網絡結構


    深層網絡比淺層網絡的所需結點數要少,而且理解力會更強

    線性結構可以解決線性問題,非線性就可以解決非線性問題

    神經元結構https://img1.sycdn.imooc.com//5b52fa1c000138c904500376.jpg

    查看全部
    0 采集 收起 來源:04網絡結構

    2018-07-21

  • 課程安排1

    查看全部
    0 采集 收起 來源:03課程安排

    2018-07-19

  • 圖像、語音:密集型矩陣,非零值

    文本:稀疏型矩陣,零值居多,需要預處理


    查看全部
  • 神經網絡

    起源:

    ????20世紀中葉


    查看全部
    0 采集 收起 來源:01課程背景

    2018-07-19

  • 神經網絡的主要組件

    查看全部
    0 采集 收起 來源:03課程安排

    2018-07-19

  • 梯度下降同步更新神經元線性部分的參數W和b,J(W,b)為損失函數

    查看全部
    1 采集 收起 來源:08梯度下降

    2018-07-17

  • 正向傳播-->網絡向量化

    反向傳播-->網絡梯度下降

    對a^n求導,輸出dW^n、db^n、dz^n,得到da^n-1

    y-->a^n-->a^n-1-->……-->a(x層不需要調教)

    訓練過程:正向傳播計算損失-->反向傳播更新參數-->反復以上步驟

    注意:傳播按層進行,中間沒有交叉,所有層全部算好后再一次性更新參數

    查看全部
  • 梯度下降是通過一種漸進性的方式來調整函數的形態(W,b),使學習結果與實際結果一致。

    通過正向運算得到y^,此時W、b是初始值,y^與真實y值有差異,通過損失函數反向調整參數W、b。用損失函數分別對W、b求導,同步更新W、b,使在損失函數變化方向上漸進減小直到Global Minimum(全局最小值),此時W、b趨向于穩定。如果損失函數趨近于全局最小值,則預測y值與真實y值差異最小。

    查看全部
    1 采集 收起 來源:08梯度下降

    2018-07-06

  • 損失函數判斷學習產生的函數值和訓練集給出的函數值之間的差異性。

    不使用歐幾里得距離(預測值與真實值做差)而使用log函數是因為,通過激勵函數學習出的平面并不是凸函數平面,在后期做梯度下降(與是否是凸函數有關)時有多個局部極小值時,學習結果不準確。

    -->使用log變成凸函數。

    查看全部
    3 采集 收起 來源:07損失函數

    2018-07-06

  • 激勵函數的作用是提供規?;姆蔷€性化能力,模擬神經元被激發后非線性狀態的變化。

    Sigmoid:區間[0,1]

    優點:整個區間段可導。

    缺點:不是原點中心對稱,對稱點(0,0.5)-->數據中心化(0,0)

    tanh:區間[-1,1]

    優點:sigmoid函數平移后得到,中心對稱。

    缺點:趨向于較大或較小時,導數為0,函數變化平緩,神經網絡學習效率受影響,學習周期變長。

    ReLU(較為普遍):

    缺點:小于0時,導數為0,出現問題-->可改為斜率較小的斜線

    查看全部
    3 采集 收起 來源:06激勵函數

    2018-07-06

  • 圖像、語音:密集型矩陣,非零值

    文本:稀疏型矩陣,零值居多,需要預處理

    查看全部
  • 權重 偏置值
    查看全部
    0 采集 收起 來源:04網絡結構

    2018-06-30

  • :=? ?同步更新

    查看全部
    0 采集 收起 來源:08梯度下降

    2018-06-13

舉報

0/150
提交
取消
課程須知
1、機器學習基礎知識 2、直觀講解神經網絡核心原理
老師告訴你能學到什么?
1、神經網絡的歷史 2、激勵函數,損失函數,梯度下降等機器學習概念 3、神經網絡的學習訓練過程 4、直觀分析反向傳播算法

微信掃碼,參與3人拼團

微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號

友情提示:

您好,此課程屬于遷移課程,您已購買該課程,無需重復購買,感謝您對慕課網的支持!