如何實現可微損失函數來計算錯誤預測的數量?output = [1,0,4,10]target = [1,2,4,15]loss = np.count_nonzero(output != target) / len(output) # [0,1,0,1] -> 2 / 4 -> 0.5我已經嘗試了一些實現,但它們是不可區分的。RuntimeError: element 0 of tensors does not require grad and does not have a grad_fndef hamming_loss(output, target): #loss = torch.tensor(torch.nonzero(output != target).size(0)).double() / target.size(0) #loss = torch.sum((output != target), dim=0).double() / target.size(0) loss = torch.mean((output != target).double()) return loss也許有一些類似但差分的損失函數?
1 回答

ABOUTYOU
TA貢獻1812條經驗 獲得超5個贊
你為什么不將離散預測(例如,)與“軟”預測(即每個標簽的概率(例如,成為4x(num標簽)概率向量)轉換為“軟”預測。
一旦你有了“軟”預測,你就可以計算預測輸出概率和所需目標之間的交叉熵損失。[1, 0, 4, 10]
output
添加回答
舉報
0/150
提交
取消