1 回答

TA貢獻1836條經驗 獲得超3個贊
這種類型的扣除并不完全正確。特征之間的組合不是線性的。確實,如果嚴格為 0 沒有關系,但它可能會以另一種方式在另一個深層重新組合。
如果您的模型是線性的,那將是正確的。事實上,這就是 PCA 分析的工作原理,它通過協方差矩陣搜索線性關系。特征值將指示每個特征的重要性。
我認為有幾種方法可以證實你的懷疑:
消除您認為不重要的特征,再次訓練并查看結果。如果是相似的,那么你的懷疑是正確的。
應用當前模型,舉一個例子(我們稱之為樞軸)來評估和顯著改變你認為不相關的特征并創建許多例子。這適用于多個樞軸。如果結果相似,則該字段應該無關緊要。示例(我認為第一個功能無關緊要):
data = np.array([[0.5, 1, 0.5], [1, 2, 5]])
range_values = 50
new_data = []
for i in range(data.shape[0]):
sample = data[i]
# We create new samples
for i in range (1000):
noise = np.random.rand () * range_values
new_sample = sample.copy()
new_sample[0] += noise
new_data.append(new_sample)
添加回答
舉報