3 回答

TA貢獻1804條經驗 獲得超7個贊
您可以直接使用 StratifiedKFold() 或 StratifiedShuffleSplit() 來根據某些分類列使用分層采樣來分割數據集。
虛擬數據:
import pandas as pd
import numpy as np
np.random.seed(43)
df = pd.DataFrame({'ID': (1,1,2,2,3,3),
'Object': ('bus', 'car', 'bus', 'bus', 'bus', 'car'),
'X' : np.random.randint(0, 10, 6),
'Y' : np.random.randn(6)
})
df
使用 StratifiedKFold()
from sklearn.model_selection import StratifiedKFold
skf = StratifiedKFold(n_splits=2)
for train_index, test_index in skf.split(df, df["Object"]):
strat_train_set_1 = df.loc[test_index]
strat_test_set_1 = df.loc[test_index]
print('train_set :', strat_train_set_1, '\n' , 'test_set :', strat_test_set_1)
同樣,如果您選擇使用 StratifiedShuffleSplit(),您可以
from sklearn.model_selection import StratifiedShuffleSplit
sss = StratifiedShuffleSplit(n_splits=1, test_size=0.2, random_state=42)
# n_splits = Number of re-shuffling & splitting iterations.
for train_index, test_index in sss.split(df, df["Object"]):
# split(X, y[, groups]) Generates indices to split data into training and test set.
strat_train_set = df.loc[train_index]
strat_test_set = df.loc[test_index]
print('train_set :', strat_train_set, '\n' , 'test_set :', strat_test_set)

TA貢獻1818條經驗 獲得超8個贊
我會簡單地使用KFoldpython 的 scikit-learn 方法來做到這一點
from numpy import array
from sklearn.model_selection import KFold
data = array([0.1, 0.2, 0.3, 0.4, 0.5, 0.6])
kfold = KFold(3, True, 1)
for train, test in kfold.split(data):
? ? print('train: %s, test: %s' % (data[train], data[test]))

TA貢獻1797條經驗 獲得超4個贊
創建交叉驗證拆分時,我們關心創建的折疊,這些折疊對數據中遇到的各種“案例”具有良好的分布。
就您而言,您決定根據汽車數量和邊界框數量進行折疊,這是一個不錯但有限的選擇。因此,如果您可以使用數據/元數據識別特定情況,您可以嘗試使用它創建更智能的折疊。
最明顯的選擇是平衡折疊中的對象類型(類),但您可以走得更遠。
這是主要思想,假設您有主要在法國遇到的汽車的圖像,以及主要在美國遇到的其他汽車的圖像,它可以用于創建良好的折疊,每個折疊中法國和美國汽車的數量保持平衡。天氣條件等也可以這樣做。因此,每次折疊都將包含可供學習的代表性數據,以便您的網絡不會對您的任務產生偏見。因此,您的模型對于現實生活中數據的潛在變化將更加穩健。
那么,您可以在交叉驗證策略中添加一些元數據來創建更好的簡歷嗎?如果不是這種情況,您能否使用數據集的 x、y、w、h 列獲取有關潛在極端情況的信息?
然后,您應該嘗試在樣本方面進行平衡折疊,以便在相同的樣本大小上評估您的分數,這將減少方差并最終提供更好的評估。
添加回答
舉報