-
Iris數據集
查看全部 -
開發環境部署步驟
查看全部 -
環境安裝:
查看全部 -
非監督學習
查看全部 -
基本原理:
查看全部 -
22222
查看全部 -
111111
查看全部 -
就截個圖吧
查看全部 -
import pandas as pd
path = 'data/pima-indians-diabetes.csv'
pima=pd.read_csv(path)
pima.head()
#X,y賦值
feature_name=['pregnant','insulin','bmi';age']
X = pima[feature_names]
y =pima.label
#確認維度
print(X.shape)
print(y.shape)
#數據分離
from sklearn.model_selection ?import train_test_split
X_trian,X_test,y_train,y_test = train_test_split(X,y,random_state=0)
#模型訓練
from sklearn.linear_model import logisticregression
logReg = logisticRegression()
logReg.fit(X_train,y_train)
y_pred = logReg.predict(X_test)
from sklearn import metric
print("metrics.accuracy_score(y_test,y_pred)
##確認正負樣本的數據量以及空準確率
y_test.value_counts()
y_test.mean()
1-y_test.mean()
max(y_test.mean(),1-y_test.mean())
#展示部分書記結果與預測結果
print(y_test.value[0:25]
pritn(y_pred[0:25]
#計算并展示混淆矩陣
confusion = metrics.confusion_metrix(y_test,y_pred)
#四個因子賦值
TN = confusion[0][0]
FP = confusion[0][1]
FN = confusion[1][0]
TP = confusion[1][1]
#指標計算
accuracy = (TP+TN)/(TP+TN+FP+FN)
mis_rate ?=(FP+FN)/(TP+TN+FP+FN)
recall =TP/(TP+FN)
specificity ?=TN(TN+FP)
precision = TP/(TP+FP)
f1_score = 2*precison*recall/(precision+recall)
查看全部 -
匹馬印第安人數據集
數據來源:
Pima Indians Diabetes dataset
查看全部 -
混淆矩陣的應用舉例
查看全部 -
混淆矩陣的指標
查看全部 -
混淆矩陣的定義
查看全部 -
使用準確率進行模型評估的局限性
不能體系那數據的實際分布情況
沒有體現模型錯誤預測的類型
空準確率的概念
查看全部 -
邏輯回歸模型
準確率進行模型評估有其局限性,只能看到整體,而不知細節。
比如1000個數據(900個1,100個0),全部預測為1 ,整體準確率是90%,而實際上0全部預測為1,錯誤率100%,而1的準確率是100%
邏輯回歸模型主要應用場景就是二分類問題:比如是不是垃圾郵件,是貓還是狗
神經網絡模型也是基于此原理實現的
查看全部
舉報