-
學習資料鏈接;鏈接2為免費:
查看全部 -
求一個函數的極值就是求解函數的導數為零的時候的 x的值。
查看全部 -
求解導數的目的是在一些模型中需要求解一個損失函數的最小值,這個時候的方法就是求解一個函數的導數,來求得損失函數的最小值。這個是導數在 AI 中的意義。
查看全部 -
1
查看全部 -
1
查看全部 -
1
查看全部 -
向量
行矩陣、行向量: 只有一行的矩陣
列矩陣、列向量: 只有一列的矩陣
滿足矩陣基本運算原則。
矩陣與向量相乘,結果仍為向量。
查看全部 -
同型矩陣:行列相同
負矩陣:元素互為相反數
加法/減法(同型矩陣):相同位置數相加/相減
數乘:單個數字和矩陣相乘,單個數字和矩陣每個數字相乘
矩陣和矩陣相乘:行列元素依次相乘并求和。
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 第一個矩陣的列數要求等于第二個矩陣的行數
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?不滿足交換律,滿足結合律和分配律
查看全部 -
同型矩陣:行數、列數分別相同的矩陣
比如兩個3x2的矩陣A和B,那它們兩個就是同型矩陣
負矩陣:矩陣元素互為相反數關系的矩陣
矩陣的負矩陣必然是它的同型矩陣
互為同型矩陣才能進行加減法運算
矩陣的加法滿足交換律、結合律:
A + B = B + A
A + B + C = A + (B + C)
數乘:數與矩陣元素分別相乘
矩陣的數乘滿足交換律、結合律、分配律,假設λ和μ是兩個數字:
λA = Aλ
λAμ = λ(Aμ)
λ(A + B) = λA + λB
矩陣乘法不滿足交換律,滿足結合律、分配律:
AB ≠ BA
(AB)C = A(BC)
A(B + C) = AB + AC
查看全部 -
一、條件概率與全概率條件概率:事件A已經發生的條件下事件B發生的概率 P(B|A)?
? ? P(B|A) = P(AB) / P(A)? ? ??
? ? P(AB) AB同時發生的概率?
全概率:將復雜事件A的概率求解問題,轉化為在不同情況下發生的簡單事件的概率的求和問題
?
A 的概率就是 用橙黃色標記的圓環內的圓。
全概率公式是概率論中的一個重要公式,它用于計算一個事件的概率,當這個事件可以通過幾個互斥的途徑發生時。具體來說,如果我們有一個樣本空間 SS 和一個事件 AA,并且樣本空間可以被劃分為幾個互斥的事件 B1,B2,...,BnB1,B2,...,Bn(即這些事件兩兩不相交,并且它們的并集是整個樣本空間),那么事件 AA 的概率可以表示為:
P(A)=P(A∣B1)P(B1)+P(A∣B2)P(B2)+...+P(A∣Bn)P(Bn)P(A)=P(A∣B1)P(B1)+P(A∣B2)P(B2)+...+P(A∣Bn)P(Bn)
其中:
P(A)P(A)?是事件?AA?發生的概率。
P(A∣Bi)P(A∣Bi)?是在事件?BiBi?發生的條件下事件?AA?發生的條件概率。
P(Bi)P(Bi)?是事件?BiBi?發生的概率。
全概率公式的直觀理解是:要計算事件 AA 的總概率,我們可以分別計算在每個互斥事件 BiBi 發生的情況下 AA 發生的概率,并將這些概率加權求和,權重就是每個 BiBi 發生的概率。
這個公式在實際應用中非常有用,特別是在處理復雜問題時,可以通過分解問題來簡化計算
查看全部 -
一、機器學習中的矩陣運算
函數關系:y = f(x1, x2, x3, ...)
y = Ax + B, 求A,B
?x為矩陣,系數θ為列向量
y = [x][θ] + b
查看全部 -
同型矩陣:行數、列數分別相同的矩陣
????必須是同型號矩陣才能進行加減運算
????加法:矩陣元素分別相加,滿足交換律、結合律
????減法:矩陣元素分別相減
負矩陣:矩陣元素互為相反數關系的矩陣(負矩陣必定為同型矩陣)(矩陣前面有 - 負號)
矩陣的加法:矩陣元素分別相加(互為同型矩陣才能進行加法運算)
?
矩陣的加法滿足交換律、結合律,即:
????A+B=B+A
????A+B+C=A+(B+C)
????矩陣的減法可以理解為對負矩陣的加法,即:
????A-B=A+(-B)
矩陣的數乘:數與矩陣元素分別相乘
矩陣的數乘滿足交換律、結合律、分配律
矩陣與矩陣相乘:行列元素依次相乘并求和(第一個矩陣列數等于第二個矩陣行數)
矩陣與矩陣相乘不滿足交換律,但滿足結合律、分配律
查看全部 -
一、向量
行向量:只有一行的矩陣
列向量:只有一列的矩陣,行向量的轉置
?
二、向量的基本運算
遵循矩陣基本運算規則
矩陣與向量相乘,結果仍為向量
查看全部 -
#?python的矩陣運算 import?numpy?as?np A?=?np.array([[1,2,3],[6,6,6],[7,8,9]]) print(A)
查看全部 -
深度學習可以理解為層層遞進的關系
中間層A=元素X*系數+常數
輸出值Y=中間層A*系數+常數
多層次則逐層運算
查看全部 -
積分公式計算公式計算
查看全部 -
積分公式計算公式計算
查看全部 -
概率分析
查看全部 -
學習大綱總結
查看全部 -
一、實戰 - 樸素貝葉斯的使用
調用sklearn 樸素貝葉斯模塊CategoricalNB, 訓練模型基于用戶基本信息,預測其購買商品的概率。
import?pandas?as?pd import?numpy?as?np #?數據加載 data?=?pd.read_csv("data.csv") data.head() #?X賦值 X?=?data.drop(['y'],?axis?=?1) #?y?賦值 y?=?data.loc[:,?'y'] #?建立模型 #?pip?install?sklearn? from?sklearn.native_bayes?import?CategoricalNB #?建立模型實例 model?=?CategoricalNB() #?模型訓練 model.fit(X,?y) y_predict_prob?=?model.predict_proba(X) #?輸出預測y y_predict?=?model.predict(X) #?計算模型準確率 from?sklearn.metrics?import?accuracy_score accuracy?=?accuracy_score(y,?y_predict) #?測試樣本的預測 X_test?=?np.array([0,0,0,1,1,0]) y_test_proba?=?model.predict_proba(X_test) y_test?=?model.predict(X_test)
查看全部 -
一、貝葉斯公式
? 在已知一些條件下(部分事件發生的概率),實現對目標事件發生概率更準確的預測
P(B|A) = P(B) * P(A|B) / P(A)
貝葉斯公式則是利用條件概率和全概率公式計算后驗概率
二、樸素貝葉斯
以貝葉斯定理為基礎,假設特征之間相互獨立,先通過訓練數據集,學習從輸入到輸出的概率分布,再基于學習到的模型及輸入,求出使得后驗概率最大的輸出實現分類。
P(Y|X) = P(Y) * P(X|Y) / P(X)
查看全部 -
一、條件概率與全概率
條件概率:事件A已經發生的條件下事件B發生的概率 P(B|A)
P(B|A) = P(AB) / P(A)? ? ? # P(AB) AB同時發生的概率?
全概率:將復雜事件A的概率求解問題,轉化為在不同情況下發生的簡單事件的概率的求和問題
查看全部 -
一、概率基礎知識
矩陣、微積分 ---> 回歸;概率 ---> 分類
概率:可能性的度量 likehood
查看全部 -
一、Python 實現微分與積分
使用 sympy 包
import sympy as sp
x = sp.Symbol('x')
y = 3 * x ** 2? ? ? ? # ** 冪運算
# 求導(求微分)
f1 = sp.diff(y)
# 求積分
F1 = sp.integrate(f1, x)
# 求極限
x = 0 時
L1 = sp.limit(y1, x, 0)
查看全部 -
一、積分
逆運算:導數推出原函數 --> 積分
不定積分:函數f的不定積分,是一個可導函數F且其導數等于原來的函數f
定積分:對于一個給定的正實數函數f(x),在一個實數區間上的定積分可以理解為在坐標平面上,由曲線、直線以及軸圍成的曲邊梯形的面積值。
作用:求面積,確定概率
查看全部 -
一、梯度下降法 (梯度即導數)
尋找極小值的一種方法。通過向函數上當前點對應梯度(導數)的反方向的規定步長距離點進行迭代搜索,直到在極小點收斂。
核心:從一個點出發,沿著導數的反方向逐步逼近極值點。?
查看全部
舉報