2 回答

TA貢獻1804條經驗 獲得超8個贊
您的繪圖實際上對應于您運行的代碼
poly=PolynomialFeatures(degree=7)
而不是degree=2
。事實上,通過上述更改運行代碼,我們得到:
現在,您的多項式特征是:
poly.get_feature_names()
# ['1', 'x0', 'x0^2', 'x0^3', 'x0^4', 'x0^5', 'x0^6', 'x0^7']
線性回歸的相應系數是:
reg.coef_
# array([[ 0. , 5.43894411, -68.14277256, 364.28508827,
# -941.70924401, 1254.89358662, -831.27091422, 216.43304954]])
加上截距:
reg.intercept_
# array([0.51228593])
鑒于上述情況,并設置
coef = reg.coef_[0]
由于這里我們的初始數據只有一個特征,因此您的回歸方程為:
y = reg.intercept_ + coef[0] + coef[1]*x + coef[2]*x**2 + coef[3]*x**3 + coef[4]*x**4 + coef[5]*x**5 + coef[6]*x**6 + coef[7]*x**7
為了進行視覺驗證,我們可以用以下x數據繪制上述函數[0, 1]
x = np.linspace(0, 1, 15)
運行上面的表達式y并
plt.plot(x, y)
給出:
使用一些隨機生成的數據x,我們可以驗證方程的結果y_eq確實等于y_reg數值精度范圍內回歸模型產生的結果:
x = np.random.rand(1,10)
y_eq = reg.intercept_ + coef[0] + coef[1]*x + coef[2]*x**2 + coef[3]*x**3 + coef[4]*x**4 + coef[5]*x**5 + coef[6]*x**6 + coef[7]*x**7
y_reg = np.concatenate(reg.predict(poly.transform(x.reshape(-1,1))))
y_eq
# array([[0.72452703, 0.64106819, 0.67394222, 0.71756648, 0.71102853,
# 0.63582055, 0.54243177, 0.71104983, 0.71287962, 0.6311952 ]])
y_reg
# array([0.72452703, 0.64106819, 0.67394222, 0.71756648, 0.71102853,
# 0.63582055, 0.54243177, 0.71104983, 0.71287962, 0.6311952 ])
np.allclose(y_reg, y_eq)
# True
與問題無關,我想您已經知道嘗試將如此高階的多項式擬合到如此少的數據點并不是一個好主意,并且您可能應該保持 2 或 3 的低階數......

TA貢獻1111條經驗 獲得超0個贊
請注意您如何生成問題中所示的圖。當我運行你的代碼時,我得到了以下(度= 2)多項式,按預期擬合數據:
現在您已經擬合了數據,您可以看到模型的系數:
print(reg.coef_)
print(reg.intercept_)
# [[ 0. 0.85962436 -0.83796885]]
# [0.5523586]
請注意,用于擬合此模型的數據相當于以下內容:
X_poly = np.concatenate([np.ones((16,1)), X, X**2], axis=1)
因此,單個數據點是按如下方式創建的向量:
temp = 0.5
x = np.array([1, temp, temp**2]).reshape((1,3))
您的多項式模型只是多項式特征的線性模型:
y = 軸 + B
或者
y = reg.coef_.dot(x.T) + reg.intercept_
print(y) # [[0.77267856]]
確認:
print(reg.predict(x)) # array([[0.77267856]])
添加回答
舉報