首頁 > 軟體

pytorch中Tensor.to(device)和model.to(device)的區別及說明

2022-07-15 18:00:19

Tensor.to(device)和model.to(device)的區別

區別所在

使用GPU訓練的時候,需要將Module物件和Tensor型別的資料送入到device。通常會使用 to.(device)。但是需要注意的是:

  • 對於Tensor型別的資料,使用to.(device) 之後,需要接收返回值,返回值才是正確設定了device的Tensor。
  • 對於Module物件,只用呼叫to.(device) 就可以將模型設定為指定的device。不必接收返回值。

來自pytorch官方檔案的說明:

Tensor.to(device)

Module.to(device)

舉例

# Module物件設定device的寫法
model.to(device)

# Tensor型別的資料設定 device 的寫法。
samples = samples.to(device)

pytorch學習筆記--to(device)用法

在學習深度學習的時候,我們寫程式碼經常會見到類似的程式碼:

img = img.to(device=torch.device("cuda" if torch.cuda.is_available() else "cpu"))
model = models.vgg16_bn(pretrained=True).to(device=torch.device("cuda" if torch.cuda.is_available() else "cpu"))

也可以先定義device:

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model = model.to(device)
img = img.to(device)

這段程式碼到底有什麼用呢?

這段程式碼的意思就是將所有最開始讀取資料時的tensor變數copy一份到device所指定的GPU上去,之後的運算都在GPU上進行。

為什麼要在GPU上做運算呢?

首先,在做高維特徵運算的時候,採用GPU無疑是比用CPU效率更高,如果兩個資料中一個加了.cuda()或者.to(device),而另外一個沒有加,就會造成型別不匹配而報錯。

tensor和numpy都是矩陣,前者能在GPU上執行,後者只能在CPU執行,所以要注意資料型別的轉換。

.cuda()和.to(device)的效果一樣嗎?為什麼後者更好?

兩個方法都可以達到同樣的效果,在pytorch中,即使是有GPU的機器,它也不會自動使用GPU,而是需要在程式中顯示指定。呼叫model.cuda(),可以將模型載入到GPU上去。這種方法不被提倡,而建議使用model.to(device)的方式,這樣可以顯示指定需要使用的計算資源,特別是有多個GPU的情況下。

如果你有多個GPU

那麼可以參考以下程式碼:

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model = Model()

if torch.cuda.device_count() > 1:
    model = nn.DataParallel(model,device_ids=[0,1,2])
    model.to(device)

以上為個人經驗,希望能給大家一個參考,也希望大家多多支援it145.com。


IT145.com E-mail:sddin#qq.com