-
同型矩陣:行數、列數分別相同的矩陣
????必須是同型號矩陣才能進行加減運算
????加法:矩陣元素分別相加,滿足交換律、結合律
????減法:矩陣元素分別相減
負矩陣:矩陣元素互為相反數關系的矩陣(負矩陣必定為同型矩陣)(矩陣前面有 - 負號)
矩陣的加法:矩陣元素分別相加(互為同型矩陣才能進行加法運算)
?
矩陣的加法滿足交換律、結合律,即:
????A+B=B+A
????A+B+C=A+(B+C)
????矩陣的減法可以理解為對負矩陣的加法,即:
????A-B=A+(-B)
矩陣的數乘:數與矩陣元素分別相乘
矩陣的數乘滿足交換律、結合律、分配律
矩陣與矩陣相乘:行列元素依次相乘并求和(第一個矩陣列數等于第二個矩陣行數)
矩陣與矩陣相乘不滿足交換律,但滿足結合律、分配律
查看全部 -
一、向量
行向量:只有一行的矩陣
列向量:只有一列的矩陣,行向量的轉置
?
二、向量的基本運算
遵循矩陣基本運算規則
矩陣與向量相乘,結果仍為向量
查看全部 -
#?python的矩陣運算 import?numpy?as?np A?=?np.array([[1,2,3],[6,6,6],[7,8,9]]) print(A)
查看全部 -
深度學習可以理解為層層遞進的關系
中間層A=元素X*系數+常數
輸出值Y=中間層A*系數+常數
多層次則逐層運算
查看全部 -
積分公式計算公式計算
查看全部 -
積分公式計算公式計算
查看全部 -
概率分析
查看全部 -
學習大綱總結
查看全部 -
一、實戰 - 樸素貝葉斯的使用
調用sklearn 樸素貝葉斯模塊CategoricalNB, 訓練模型基于用戶基本信息,預測其購買商品的概率。
import?pandas?as?pd import?numpy?as?np #?數據加載 data?=?pd.read_csv("data.csv") data.head() #?X賦值 X?=?data.drop(['y'],?axis?=?1) #?y?賦值 y?=?data.loc[:,?'y'] #?建立模型 #?pip?install?sklearn? from?sklearn.native_bayes?import?CategoricalNB #?建立模型實例 model?=?CategoricalNB() #?模型訓練 model.fit(X,?y) y_predict_prob?=?model.predict_proba(X) #?輸出預測y y_predict?=?model.predict(X) #?計算模型準確率 from?sklearn.metrics?import?accuracy_score accuracy?=?accuracy_score(y,?y_predict) #?測試樣本的預測 X_test?=?np.array([0,0,0,1,1,0]) y_test_proba?=?model.predict_proba(X_test) y_test?=?model.predict(X_test)
查看全部 -
一、貝葉斯公式
? 在已知一些條件下(部分事件發生的概率),實現對目標事件發生概率更準確的預測
P(B|A) = P(B) * P(A|B) / P(A)
貝葉斯公式則是利用條件概率和全概率公式計算后驗概率
二、樸素貝葉斯
以貝葉斯定理為基礎,假設特征之間相互獨立,先通過訓練數據集,學習從輸入到輸出的概率分布,再基于學習到的模型及輸入,求出使得后驗概率最大的輸出實現分類。
P(Y|X) = P(Y) * P(X|Y) / P(X)
查看全部 -
一、條件概率與全概率
條件概率:事件A已經發生的條件下事件B發生的概率 P(B|A)
P(B|A) = P(AB) / P(A)? ? ? # P(AB) AB同時發生的概率?
全概率:將復雜事件A的概率求解問題,轉化為在不同情況下發生的簡單事件的概率的求和問題
查看全部 -
一、概率基礎知識
矩陣、微積分 ---> 回歸;概率 ---> 分類
概率:可能性的度量 likehood
查看全部 -
一、Python 實現微分與積分
使用 sympy 包
import sympy as sp
x = sp.Symbol('x')
y = 3 * x ** 2? ? ? ? # ** 冪運算
# 求導(求微分)
f1 = sp.diff(y)
# 求積分
F1 = sp.integrate(f1, x)
# 求極限
x = 0 時
L1 = sp.limit(y1, x, 0)
查看全部 -
一、積分
逆運算:導數推出原函數 --> 積分
不定積分:函數f的不定積分,是一個可導函數F且其導數等于原來的函數f
定積分:對于一個給定的正實數函數f(x),在一個實數區間上的定積分可以理解為在坐標平面上,由曲線、直線以及軸圍成的曲邊梯形的面積值。
作用:求面積,確定概率
查看全部 -
一、梯度下降法 (梯度即導數)
尋找極小值的一種方法。通過向函數上當前點對應梯度(導數)的反方向的規定步長距離點進行迭代搜索,直到在極小點收斂。
核心:從一個點出發,沿著導數的反方向逐步逼近極值點。?
查看全部
舉報