亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

pytorch中卷積中的掩碼內核

pytorch中卷積中的掩碼內核

小唯快跑啊 2023-07-11 15:07:13
比方說:x = torch.arange(16, dtype=torch.float).reshape(1, 1, 4, 4)二維卷積層是:layer = torch.nn.Conv2d(in_channels=1, out_channels=1, kernel_size=2, stride=2)layer.weight.data[:] = 1.layer.bias.data[:] = 0.通常,將x傳遞給圖層將給出:>>layer(x)    tensor([[[[10., 18.],              [42., 50.]]]], grad_fn=<MkldnnConvolutionBackward>)考慮到有 4 個掩模過濾器,如何在每一步中掩模內核?例如下圖表示4個過濾器(白色:True,黑色:False)輸出應該是:tensor([[[[5., 15.],           [30., 40.]]]], grad_fn=<MkldnnConvolutionBackward>)PS:所有掩模都是通過二維輸入數組中缺失的像素獲得的。所以上面的4個掩碼實際上是一個與輸入形狀相同的矩陣。
查看完整描述

1 回答

?
慕桂英546537

TA貢獻1848條經驗 獲得超10個贊

我找到了解決方案。


在將輸入和掩碼提供給 Conv2d 方法之前,在輸入和掩碼之間進行按元素相乘就足夠了。(掩碼輸入比掩碼內核本身容易得多?。。?/p>


mask = torch.tensor([[[1, 1, 1, 0]], [[1, 0, 1, 1]], [[1, 1, 0, 1]], [[0, 1, 1, 1]]], dtype=torch.float, requires_grad=False).reshape(1, 1, 4, 4)


>>layer(torch.mul(x, mask))

tensor([[[[5., 15.],

? ? ? ? ? [30., 40.]]]], grad_fn=<MkldnnConvolutionBackward>)


查看完整回答
反對 回復 2023-07-11
  • 1 回答
  • 0 關注
  • 253 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號