首頁 > 軟體

Pytorch實現常用乘法運算元TensorRT的範例程式碼

2022-06-01 18:00:46

本文介紹一下 Pytorch 中常用乘法的 TensorRT 實現。

pytorch 用於訓練,TensorRT 用於推理是很多 AI 應用開發的標配。大家往往更加熟悉 pytorch 的運算元,而不太熟悉 TensorRT 的運算元,這裡拿比較常用的乘法運算在兩種框架下的實現做一個對比,可能會有更加直觀一些的認識。

1.乘法運算總覽

先把 pytorch 中的一些常用的乘法運算進行一個總覽:

  • torch.mm:用於兩個矩陣 (不包括向量) 的乘法,如維度 (m, n) 的矩陣乘以維度 (n, p) 的矩陣;
  • torch.bmm:用於帶 batch 的三維向量的乘法,如維度 (b, m, n) 的矩陣乘以維度 (b, n, p) 的矩陣;
  • torch.mul:用於同維度矩陣的逐畫素點相乘,也即點乘,如維度 (m, n) 的矩陣點乘維度 (m, n) 的矩陣。該方法支援廣播,也即支援矩陣和元素點乘;
  • torch.mv:用於矩陣和向量的乘法,矩陣在前,向量在後,如維度 (m, n) 的矩陣乘以維度為 (n) 的向量,輸出維度為 (m);
  • torch.matmul:用於兩個張量相乘,或矩陣與向量乘法,作用包含 torch.mm、torch.bmm、torch.mv;
  • @:作用相當於 torch.matmul;
  • *:作用相當於 torch.mul;

如上進行了一些具體羅列,可以歸納出,常用的乘法無非兩種:矩陣乘 和 點乘,所以下面分這兩類進行介紹。

2.乘法運算元實現

2.1矩陣乘運算元實現

先來看看矩陣乘法的 pytorch 的實現 (以下實現在終端):

>>> import torch
>>> # torch.mm
>>> a = torch.randn(66, 99)
>>> b = torch.randn(99, 88)
>>> c = torch.mm(a, b)
>>> c.shape
torch.size([66, 88])
>>>
>>> # torch.bmm
>>> a = torch.randn(3, 66, 99)
>>> b = torch.randn(3, 99, 77)
>>> c = torch.bmm(a, b)
>>> c.shape
torch.size([3, 66, 77])
>>>
>>> # torch.mv
>>> a = torch.randn(66, 99)
>>> b = torch.randn(99)
>>> c = torch.mv(a, b)
>>> c.shape
torch.size([66])
>>>
>>> # torch.matmul
>>> a = torch.randn(32, 3, 66, 99)
>>> b = torch.randn(32, 3, 99, 55)
>>> c = torch.matmul(a, b)
>>> c.shape
torch.size([32, 3, 66, 55])
>>>
>>> # @
>>> d = a @ b
>>> d.shape
torch.size([32, 3, 66, 55])

來看 TensorRT 的實現,以上乘法都可使用 addMatrixMultiply 方法覆蓋,對應 torch.matmul,先來看該方法的定義:

//!
//! brief Add a MatrixMultiply layer to the network.
//!
//! param input0 The first input tensor (commonly A).
//! param op0 The operation to apply to input0.
//! param input1 The second input tensor (commonly B).
//! param op1 The operation to apply to input1.
//!
//! see IMatrixMultiplyLayer
//!
//! warning Int32 tensors are not valid input tensors.
//!
//! return The new matrix multiply layer, or nullptr if it could not be created.
//!
IMatrixMultiplyLayer* addMatrixMultiply(
  ITensor& input0, MatrixOperation op0, ITensor& input1, MatrixOperation op1) noexcept
{
  return mImpl->addMatrixMultiply(input0, op0, input1, op1);
}

可以看到這個方法有四個傳參,對應兩個張量和其 operation。來看這個運算元在 TensorRT 中怎麼新增:

// 構造張量 Tensor0
nvinfer1::IConstantLayer *Constant_layer0 = m_network->addConstant(tensorShape0, value0);
// 構造張量 Tensor1
nvinfer1::IConstantLayer *Constant_layer1 = m_network->addConstant(tensorShape1, value1);

// 新增矩陣乘法
nvinfer1::IMatrixMultiplyLayer *Matmul_layer = m_network->addMatrixMultiply(Constant_layer0->getOutput(0), matrix0Type, Constant_layer1->getOutput(0), matrix2Type);

// 獲取輸出
matmulOutput = Matmul_layer->getOputput(0);

2.2點乘運算元實現

再來看看點乘的 pytorch 的實現 (以下實現在終端):

>>> import torch
>>> # torch.mul
>>> a = torch.randn(66, 99)
>>> b = torch.randn(66, 99)
>>> c = torch.mul(a, b)
>>> c.shape
torch.size([66, 99])
>>> d = 0.125
>>> e = torch.mul(a, d)
>>> e.shape
torch.size([66, 99])
>>> # *
>>> f = a * b
>>> f.shape
torch.size([66, 99])

來看 TensorRT 的實現,以上乘法都可使用 addScale 方法覆蓋,這在影象預處理中十分常用,先來看該方法的定義:

//!
//! brief Add a Scale layer to the network.
//!
//! param input The input tensor to the layer.
//!              This tensor is required to have a minimum of 3 dimensions in implicit batch mode
//!              and a minimum of 4 dimensions in explicit batch mode.
//! param mode The scaling mode.
//! param shift The shift value.
//! param scale The scale value.
//! param power The power value.
//!
//! If the weights are available, then the size of weights are dependent on the ScaleMode.
//! For ::kUNIFORM, the number of weights equals 1.
//! For ::kCHANNEL, the number of weights equals the channel dimension.
//! For ::kELEMENTWISE, the number of weights equals the product of the last three dimensions of the input.
//!
//! see addScaleNd
//! see IScaleLayer
//! warning Int32 tensors are not valid input tensors.
//!
//! return The new Scale layer, or nullptr if it could not be created.
//!
IScaleLayer* addScale(ITensor& input, ScaleMode mode, Weights shift, Weights scale, Weights power) noexcept
{
  return mImpl->addScale(input, mode, shift, scale, power);
}

 可以看到有三個模式:

  • kUNIFORM:weights 為一個值,對應張量乘一個元素;
  • kCHANNEL:weights 維度和輸入張量通道的 c 維度對應,可以做一些以通道為基準的預處理;
  • kELEMENTWISE:weights 維度和輸入張量的 c、h、w 對應,不考慮 batch,所以是輸入的後三維;

再來看這個運算元在 TensorRT 中怎麼新增:

// 構造張量 input
nvinfer1::IConstantLayer *Constant_layer = m_network->addConstant(tensorShape, value);

// scalemode選擇,kUNIFORM、kCHANNEL、kELEMENTWISE
scalemode = kUNIFORM;

// 構建 Weights 型別的 shift、scale、power,其中 volume 為元素數量
nvinfer1::Weights scaleShift{nvinfer1::DataType::kFLOAT, nullptr, volume };
nvinfer1::Weights scaleScale{nvinfer1::DataType::kFLOAT, nullptr, volume };
nvinfer1::Weights scalePower{nvinfer1::DataType::kFLOAT, nullptr, volume };

// !! 注意這裡還需要對 shift、scale、power 的 values 進行賦值,若只是乘法只需要對 scale 進行賦值就行

// 新增張量乘法
nvinfer1::IScaleLayer *Scale_layer = m_network->addScale(Constant_layer->getOutput(0), scalemode, scaleShift, scaleScale, scalePower);

// 獲取輸出
scaleOutput = Scale_layer->getOputput(0);

有一點你可能會比較疑惑,既然是點乘,那麼輸入只需要兩個張量就可以了,為啥這裡有 input、shift、scale、power 四個張量這麼多呢。解釋一下,input 不用說,就是輸入張量,而 shift 表示加法引數、scale 表示乘法引數、power 表示指數引數,說到這裡,你應該能發現,這個函數除了我們上面講的點乘外還有其他更加豐富的運算功能。

到此這篇關於Pytorch實現常用乘法運算元TensorRT的範例程式碼的文章就介紹到這了,更多相關Pytorch乘法運算元TensorRT內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!


IT145.com E-mail:sddin#qq.com