亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

如何選擇張量流中的交叉熵損失?

如何選擇張量流中的交叉熵損失?

如何選擇張量流中的交叉熵損失?分類問題,例如邏輯回歸或多項邏輯回歸,優化了交叉熵損失。通常,交叉熵層遵循softmax層,其產生概率分布。在tensorflow中,至少有十幾種不同的交叉熵損失函數:tf.losses.softmax_cross_entropytf.losses.sparse_softmax_cross_entropytf.losses.sigmoid_cross_entropytf.contrib.losses.softmax_cross_entropytf.contrib.losses.sigmoid_cross_entropytf.nn.softmax_cross_entropy_with_logitstf.nn.sigmoid_cross_entropy_with_logits...哪個只適用于二進制分類,哪個適用于多類問題?你何時應該使用sigmoid而不是softmax?如何在sparse功能與別人不同,為什么僅是它softmax?
查看完整描述

2 回答

?
慕尼黑的夜晚無繁華

TA貢獻1864條經驗 獲得超6個贊

但是對于版本1.5,softmax_cross_entropy_with_logits_v2必須使用它,而使用其參數argument key=...如下>

softmax_cross_entropy_with_logits_v2(_sentinel=None, labels=y,\
logits = my_prediction, dim=-1, name=None)


查看完整回答
反對 回復 2019-08-24
  • 2 回答
  • 0 關注
  • 1261 瀏覽

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號