亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

實現torch.optim.lr_scheduler時出錯。

實現torch.optim.lr_scheduler時出錯。

慕桂英546537 2022-09-27 09:50:45
我正在研究一個圖像分類器,并試圖實現循環學習率以獲得更好的結果。我正在使用lr_scheduler。LambdaLR在訓練期間調整學習速率,但我遇到了一個錯誤,我不確定是什么原因造成的。這是我的代碼:lr_find_epochs = 2start_lr = 1e-7end_lr = 0.1# Set up the model, optimizer and loss function for the experimentoptimizer = torch.optim.SGD(model.parameters(), start_lr)criterion = nn.NLLLoss()# LR function lambdalr_lambda = lambda x: math.exp(x * math.log(end_lr / start_lr) / (lr_find_epochs * len( train_loader)))scheduler = torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda=lr_lambda)這是我遇到的錯誤:lr_scheduler.py中的錯誤。
查看完整描述

1 回答

?
拉丁的傳說

TA貢獻1789條經驗 獲得超8個贊

問題是由此處的此行引起的

scheduler = torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda=lr_lambda)

由于錯誤表明您嘗試在分配值之前引用值,即lambda函數被調用自身作為當前未分配給任何內容的參數。因此,在lr_scheduler.py

也許您想將其他內容傳遞給 lambda 函數。


查看完整回答
反對 回復 2022-09-27
  • 1 回答
  • 0 關注
  • 252 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號