最贊回答 / iioouu
```import numpy as npclass perceptron(object):? ? """? ? eta :學習率? ? n_iter: 權重向量的訓練次數? ? w_: 神經分叉權重向量? ? errors_: 用于記錄神經元判斷出錯次數? ? """? ? def _int_(self,eta=0.01,n_iter=10):? ? ? ? self.eta=eta;? ? ? ? self.n_iter=n_iter;? ? ? ? pass? ? def fit(self,x,y)...
2017-07-12
最新回答 / SherlockZoom
感知機的學習是有監督學習,在訓練過程是有正確的類別來指導學習的,也就是每輪訓練給出分類結果之后,只需要和gold類別對比就可以知道是否分類正確。
2017-07-06
最贊回答 / 慕函數5970831
感知器其實就是一個函數,其表示形式可以寫成<...code...>上式中,w是權重(weigh)向量,b叫做偏置(bias)本教程中的w0就是上面式子里的偏置b.dot(w,x)+b又可以寫成 dot(w,x)+b*1,這里令W=[b,w1,w2,...,wn] ? ,令X=[1,x1,x2,...,xn],所以初始化W的長度為n+1,多出來的那個就是偏置啦希望能幫到你~
2017-07-03
最新回答 / 慕前端1296039
首先,我們所求的答案并不一定是最優答案(最值),而通常是相對最優答案(極值)。拿周志華機器學習中的例子來說,當你站在山坡的某個位置時,只看你當前位置朝哪個方向走下山最快(即求導的過程),然后朝那個方向邁出一步(即更新權重的過程),之后繼續看朝哪個方向走下山最快,再繼續邁出一步(反復迭代)。也許,你會走到真正的山底(最值),也許你遇到某個坑就停下了(極值)。而針對極值,如果想要跳出,就涉及后面的優化算法了。
2017-07-02
最贊回答 / Miss_Squirrel
<...code...>這部分代碼其實只是為了描繪出分隔兩類的那條分界線,減1只是為了擴大坐標軸范圍,點更居中一些,這樣畫出的圖會更好看。以上,謝謝!
2017-06-08