亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

如何使用python(pytorch或tensorflow)同時學習兩個函數?

如何使用python(pytorch或tensorflow)同時學習兩個函數?

動漫人物 2024-01-16 10:44:37
我有三個系列的觀察結果,即Y、T、 和X。我想研究兩個模型的預測值之間的差異。第一個模型是學習g這樣的Y=g(T, X)。第二種模型是學習L等f。Y=L(T)f(X)我使用 PyTorch 包或 Tensorflow 包學習第一個模型沒有問題。但是,我不知道如何學習L和f。在使用 PyTorch 包時,我可以設置兩個具有不同隱藏層和輸入的前饋 MLP。為了簡單起見,我定義了一個前饋 MLP 類,如下所示:class Feedforward(t.nn.Module): # the definition of a feedforward neural network    # Basic definition    def __init__(self, input_size, hidden_size):        super(Feedforward, self).__init__()        self.input_size = input_size        self.hidden_size  = hidden_size        self.fc1 = t.nn.Linear(self.input_size, self.hidden_size)        self.relu = t.nn.ReLU()        self.fc2 = t.nn.Linear(self.hidden_size, 1)        self.sigmoid = t.nn.Sigmoid()    # Advance definition    def forward(self, x):        hidden = self.fc1(x)        relu = self.relu(hidden)        output = self.fc2(relu)        output = self.sigmoid(output)        return output假設L=Feedforward(2,10)和L=Feedforward(3,9)。根據我的理解,我只能學習 或L,f但不能同時學習兩者。是否可以同時學習L和f使用Y、T、 和X?
查看完整描述

1 回答

?
拉丁的傳說

TA貢獻1789條經驗 獲得超8個贊

我可能遺漏了一些東西,但我認為你可以:


L = Feedforward(2,10)

f = Feedforward(3,9)

L_opt = Adam(L.parameters(), lr=...)

f_opt = Adam(f.parameters(), lr=...)

for (x,t,y) in dataset:

    L.zero_grad()

    f.zero_grad()

    y_pred = L(t)*f(x)

    loss = (y-y_pred)**2

    loss.backward()

    L_opt.step()

    f_opt.step()

您還可以將它們融合到一個模型中:


class ProductModel(t.nn.Module):

    def __init__(self, L, f):

        self.L = L

        self.f = f

    def forward(self, x,t):

        return self.L(t)*self.f(x)

然后像你訓練的那樣訓練這個模型g


查看完整回答
反對 回復 2024-01-16
  • 1 回答
  • 0 關注
  • 130 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號