如何選擇張量流中的交叉熵損失?分類問題,例如邏輯回歸或多項邏輯回歸,優化了交叉熵損失。通常,交叉熵層遵循softmax層,其產生概率分布。在tensorflow中,至少有十幾種不同的交叉熵損失函數:tf.losses.softmax_cross_entropytf.losses.sparse_softmax_cross_entropytf.losses.sigmoid_cross_entropytf.contrib.losses.softmax_cross_entropytf.contrib.losses.sigmoid_cross_entropytf.nn.softmax_cross_entropy_with_logitstf.nn.sigmoid_cross_entropy_with_logits...哪個只適用于二進制分類,哪個適用于多類問題?你何時應該使用sigmoid而不是softmax?如何在sparse功能與別人不同,為什么僅是它softmax?
2 回答

慕尼黑的夜晚無繁華
TA貢獻1864條經驗 獲得超6個贊
但是對于版本1.5,softmax_cross_entropy_with_logits_v2
必須使用它,而使用其參數argument key=...
如下>
softmax_cross_entropy_with_logits_v2(_sentinel=None, labels=y,\ logits = my_prediction, dim=-1, name=None)
- 2 回答
- 0 關注
- 1261 瀏覽
添加回答
舉報
0/150
提交
取消