最新回答 / SherlockZoom
感知機的學習是有監督學習,在訓練過程是有正確的類別來指導學習的,也就是每輪訓練給出分類結果之后,只需要和gold類別對比就可以知道是否分類正確。
2017-07-06
最贊回答 / 慕函數5970831
感知器其實就是一個函數,其表示形式可以寫成<...code...>上式中,w是權重(weigh)向量,b叫做偏置(bias)本教程中的w0就是上面式子里的偏置b.dot(w,x)+b又可以寫成 dot(w,x)+b*1,這里令W=[b,w1,w2,...,wn] ? ,令X=[1,x1,x2,...,xn],所以初始化W的長度為n+1,多出來的那個就是偏置啦希望能幫到你~
2017-07-03
最新回答 / 慕前端1296039
首先,我們所求的答案并不一定是最優答案(最值),而通常是相對最優答案(極值)。拿周志華機器學習中的例子來說,當你站在山坡的某個位置時,只看你當前位置朝哪個方向走下山最快(即求導的過程),然后朝那個方向邁出一步(即更新權重的過程),之后繼續看朝哪個方向走下山最快,再繼續邁出一步(反復迭代)。也許,你會走到真正的山底(最值),也許你遇到某個坑就停下了(極值)。而針對極值,如果想要跳出,就涉及后面的優化算法了。
2017-07-02
最贊回答 / Miss_Squirrel
<...code...>這部分代碼其實只是為了描繪出分隔兩類的那條分界線,減1只是為了擴大坐標軸范圍,點更居中一些,這樣畫出的圖會更好看。以上,謝謝!
2017-06-08
最新回答 / Wendy_one
原理是△wj的公式(不方便打)中y(i)-φ (z(i))是errors ,根據求和得到errors.sum()。errors.sum()中的每一個值再與self.eta(學習率)想相乘,也就是△w(w:=w+△w),而self.w_[0]就是w.也就是對△wj公式和w:=w+△w公式的一個推導。
2017-05-25
最新回答 / qq_破曉_36
self沒有定義,你少抄了? ? def __init__(self, eta=0.01, n_iter=10):? ? ? ? self.eta = eta? ? ? ? self.n_iter = n_iter
2017-05-24
最贊回答 / 只是瘋狂只是野
找到了,把下面的數據放到一個txt文件中,再把后綴改為.csv就能用了5.1,3.5,1.4,0.2,Iris-setosa4.9,3.0,1.4,0.2,Iris-setosa4.7,3.2,1.3,0.2,Iris-setosa4.6,3.1,1.5,0.2,Iris-setosa5.0,3.6,1.4,0.2,Iris-setosa5.4,3.9,1.7,0.4,Iris-setosa4.6,3.4,1.4,0.3,Iris-setosa5.0,3.4,1.5,0.2,Iris-setosa4.4,...
2017-05-21