我有三個系列的觀察結果,即Y、T、 和X。我想研究兩個模型的預測值之間的差異。第一個模型是學習g這樣的Y=g(T, X)。第二種模型是學習L等f。Y=L(T)f(X)我使用 PyTorch 包或 Tensorflow 包學習第一個模型沒有問題。但是,我不知道如何學習L和f。在使用 PyTorch 包時,我可以設置兩個具有不同隱藏層和輸入的前饋 MLP。為了簡單起見,我定義了一個前饋 MLP 類,如下所示:class Feedforward(t.nn.Module): # the definition of a feedforward neural network # Basic definition def __init__(self, input_size, hidden_size): super(Feedforward, self).__init__() self.input_size = input_size self.hidden_size = hidden_size self.fc1 = t.nn.Linear(self.input_size, self.hidden_size) self.relu = t.nn.ReLU() self.fc2 = t.nn.Linear(self.hidden_size, 1) self.sigmoid = t.nn.Sigmoid() # Advance definition def forward(self, x): hidden = self.fc1(x) relu = self.relu(hidden) output = self.fc2(relu) output = self.sigmoid(output) return output假設L=Feedforward(2,10)和L=Feedforward(3,9)。根據我的理解,我只能學習 或L,f但不能同時學習兩者。是否可以同時學習L和f使用Y、T、 和X?
1 回答

拉丁的傳說
TA貢獻1789條經驗 獲得超8個贊
我可能遺漏了一些東西,但我認為你可以:
L = Feedforward(2,10)
f = Feedforward(3,9)
L_opt = Adam(L.parameters(), lr=...)
f_opt = Adam(f.parameters(), lr=...)
for (x,t,y) in dataset:
L.zero_grad()
f.zero_grad()
y_pred = L(t)*f(x)
loss = (y-y_pred)**2
loss.backward()
L_opt.step()
f_opt.step()
您還可以將它們融合到一個模型中:
class ProductModel(t.nn.Module):
def __init__(self, L, f):
self.L = L
self.f = f
def forward(self, x,t):
return self.L(t)*self.f(x)
然后像你訓練的那樣訓練這個模型g
添加回答
舉報
0/150
提交
取消