我有一個使用 scikit 學習的隨機森林模型,如下所示:model = RandomForestClassifier(criterion='gini',n_estimators=700,min_samples_split=4,min_samples_leaf=1,max_features='auto',oob_score=True,random_state=1,n_jobs=-1)model.fit(X_train,y_train)y_pred_rm=model.predict(X_test)print('--------------The Accuracy of the model---------------------------')kfold = KFold(n_splits=10, random_state=22)result_rm = cross_val_score(model, all_features, Targeted_feature, cv=10, scoring = 'accuracy')print('The cross validated score for Random Forest Classifier is:',round(result_rm.mean()*100,2))y_pred = cross_val_predict(model,all_features,Targeted_feature,cv=10)kfold = KFold(n_splits=5, random_state=22)result_rm1 = cross_val_score(model, all_features, Targeted_feature, cv=5, scoring='accuracy')print('The cross validated score (5)for Random Forest Classifier is:',round(result_rm1.mean()*100,2))sns.heatmap(confusion_matrix(Targeted_feature,y_pred),annot=True,fmt='3.0f',cmap="winter")plt.title('Confusion_matrix', y=1.05, size=15)我一直在嘗試優化我的模型,但還沒有取得任何成功。我在測試數據集上達到的最高準確率是 78%。您有任何想法或步驟可以改進我的模型嗎?
2 回答

慕容森
TA貢獻1853條經驗 獲得超18個贊
如果不嘗試使用 sklearn 中的 GridSearchCV 或 RandomizedSearchCV,您是否嘗試過使用超參數調整?即使那樣,如果您無法提高模型分數,請嘗試使用 XGboost 或進行特征工程以找到有用的特征來進行預測。
我希望您已經完成了所有必要的數據預處理,如果還沒有完成,那也是非常重要的。嘗試其他機器學習模型,它們也有可能表現更好。

慕妹3146593
TA貢獻1820條經驗 獲得超9個贊
看起來好像您已經嘗試過超參數調整。是什么讓您認為您可以獲得高于 78% 的準確率分數?如果您在嘗試對訓練集進行預測時計算準確度得分,您是否接近 100% 的準確度?如果是這樣,那么這是一個過度擬合的問題,您可以嘗試減少 RandomForest 中的樹的數量。
如果您沒有獲得非常高的訓練準確率,那么可能您擁有的特征不足以對數據進行預測,您可能會考慮收集更多特征。這個問題叫做欠擬合。
添加回答
舉報
0/150
提交
取消