我正在上一門課程PyTorch。我想知道為什么我們需要單獨告訴torch.utils.data.DataLoader輸出它在什么設備上運行。如果模型已經打開,CUDA為什么它不相應地自動更改輸入?這種模式對我來說似乎很有趣:model.to(device)for ii, (inputs, labels) in enumerate(trainloader): # Move input and label tensors to the GPU inputs, labels = inputs.to(device), labels.to(device)是否有一個用例,我想讓模型在 GPU 上運行,但我的輸入是在 CPU 模式下,反之亦然?
添加回答
舉報
0/150
提交
取消