亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

使用方括號對 Pytorch 張量進行子集化

使用方括號對 Pytorch 張量進行子集化

呼啦一陣風 2022-07-26 16:00:51
我遇到了一行代碼,用于在 PyTorch 中將 3D 張量簡化為 2D 張量。3D 張量x的大小torch.Size([500, 50, 1])和這行代碼:x = x[lengths - 1, range(len(lengths))]用于減少x到大小為 的 2D 張量torch.Size([50, 1])。lengths也是一個torch.Size([50])包含值的形狀張量。請任何人解釋這是如何工作的?謝謝你。
查看完整描述

2 回答

?
一只萌萌小番薯

TA貢獻1795條經驗 獲得超7個贊

這里的關鍵特性是將張量的值lengths作為 的索引傳遞x。這里簡化的例子,我交換了容器的尺寸,所以 index dimenson 首先:


container = torch.arange(0, 50 )

container = f.reshape((5, 10))

>>>tensor([[ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9],

        [10, 11, 12, 13, 14, 15, 16, 17, 18, 19],

        [20, 21, 22, 23, 24, 25, 26, 27, 28, 29],

        [30, 31, 32, 33, 34, 35, 36, 37, 38, 39],

        [40, 41, 42, 43, 44, 45, 46, 47, 48, 49]])


indices = torch.arange( 2, 7, dtype=torch.long )

>>>tensor([2, 3, 4, 5, 6])


print( container[ range( len(indices) ), indices] )

>>>tensor([ 2, 13, 24, 35, 46])    

注意:我們從一行中得到一件事(range( len(indices) )產生連續的行號),列號由索引[ row_number ]


查看完整回答
反對 回復 2022-07-26
?
素胚勾勒不出你

TA貢獻1827條經驗 獲得超9個贊

在被這種行為難住之后,我對此進行了更多挖掘,發現它與多維 NumPy 數組的索引行為一致。使這種違反直覺的原因是兩個數組必須具有相同的長度這一不太明顯的事實,即在這種情況下len(lengths)。


事實上,它的工作原理如下: *lengths確定您訪問第一個維度的順序。即,如果您有一個一維數組a = [0, 1, 2, ...., 500],并使用 list 訪問它b = [300, 200, 100],那么結果a[b] = [301, 201, 101](這也解釋了lengths - 1運算符,它只會導致訪問的值與分別在b、 或lengths中使用的索引相同)。*range(len(lengths))然后 * 只需選擇第 - 行i中的第 - 個元素i。如果您有一個方陣,您可以將其解釋為矩陣的對角線。由于您只能訪問前兩個維度上每個位置的單個元素,因此可以將其存儲在一個維度中(從而將您的 3D 張量減少到 2D)。后一個維度簡單地保持“原樣”。


如果你想玩這個,我強烈建議將range()值更改為更長/更短的值,這將導致以下錯誤:


IndexError:形狀不匹配:索引數組無法與形狀(x,)(y,)一起廣播


其中x和y是您的特定長度值。


要以長形式編寫此訪問方法以了解“幕后”發生的情況,還請考慮以下示例:


import torch

x = torch.randint(500, 50, 1)

lengths = torch.tensor([2, 30, 1, 4])  # random examples to explore

diag = list(range(len(lengths)))  # [0, 1, 2, 3]

result = []

for i, row in enumerate(lengths):

    temp_tensor = x[row, :, :]  # temp_tensor.shape = [1, 50, 1]

    temp_tensor = temp_tensor.squeeze(0)[diag[i]]  # temp_tensor.shape = [1, 1]

    result.append(temp.tensor)


# back to pytorch

result = torch.tensor(result)

result.shape  # [4, 1]


查看完整回答
反對 回復 2022-07-26
  • 2 回答
  • 0 關注
  • 91 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號