亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

如何改進 val_loss 和 val_acc

如何改進 val_loss 和 val_acc

當年話下 2022-11-01 14:02:02
我正在訓練卷積神經網絡(使用 for segmentation)。而且我對驗證結果有疑問(val_loss, val_acc-in network for segmentation 正在使用 term val_dice_coef),因為只有很小的變化,并且與 -and 相比,結果沒有acc 改善。dice_coefloss我正在將此代碼示例與自己的優化器一起使用 - 我的參數:total_number_of_data = 3547 #val + training dataepochs = 400image_size = 128batch_size = 2val_data_size = 400opt = optimizers.RMSprop(learning_rate=0.0000001, decay=1e-6)350歷元后的結果:epoch |     dice_coef      |        loss         |      val_loss      |   val_dice_coef------------------------------------------------------------------------------------------1     | 0.5633156299591064 | 0.43668392300605774 | 0.4752978980541229 | 0.5247021317481995350   | 0.9698152542114258 | 0.03018493764102459 | 0.3346560299396515 | 0.6653439402580261我應該怎么辦?
查看完整描述

1 回答

?
HUX布斯

TA貢獻1876條經驗 獲得超6個贊

他們不是任何特殊的解決方案,您必須在這里嘗試所有可能的情況。但是我告訴您最大宗師遵循的更一般的過程。


def build_lrfn(lr_start=0.00001, lr_max=0.0008, 

               lr_min=0.00001, lr_rampup_epochs=20, 

               lr_sustain_epochs=0, lr_exp_decay=.8):

    lr_max = lr_max * strategy.num_replicas_in_sync


    def lrfn(epoch):

        if epoch < lr_rampup_epochs:

            lr = (lr_max - lr_start) / lr_rampup_epochs * epoch + lr_start

        elif epoch < lr_rampup_epochs + lr_sustain_epochs:

            lr = lr_max

        else:

            lr = (lr_max - lr_min) * lr_exp_decay**(epoch - lr_rampup_epochs - lr_sustain_epochs) + lr_min

        return lr


    return lrfn

lrfn = build_lrfn()

lr_schedule = tf.keras.callbacks.LearningRateScheduler(lrfn, verbose=1)



history = model.fit(

    train_dataset, 

    epochs=EPOCHS, 

    callbacks=[lr_schedule],

    steps_per_epoch=STEPS_PER_EPOCH,

    validation_data=valid_dataset

)

對于更多優化器,我總是關注這個鏈接


在我看來,亞當最近最適合你的模型


查看完整回答
反對 回復 2022-11-01
  • 1 回答
  • 0 關注
  • 170 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號