<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
本文介紹一下 Pytorch 中常用乘法的 TensorRT 實現。
pytorch 用於訓練,TensorRT 用於推理是很多 AI 應用開發的標配。大家往往更加熟悉 pytorch 的運算元,而不太熟悉 TensorRT 的運算元,這裡拿比較常用的乘法運算在兩種框架下的實現做一個對比,可能會有更加直觀一些的認識。
先把 pytorch 中的一些常用的乘法運算進行一個總覽:
如上進行了一些具體羅列,可以歸納出,常用的乘法無非兩種:矩陣乘 和 點乘,所以下面分這兩類進行介紹。
先來看看矩陣乘法的 pytorch 的實現 (以下實現在終端):
>>> import torch >>> # torch.mm >>> a = torch.randn(66, 99) >>> b = torch.randn(99, 88) >>> c = torch.mm(a, b) >>> c.shape torch.size([66, 88]) >>> >>> # torch.bmm >>> a = torch.randn(3, 66, 99) >>> b = torch.randn(3, 99, 77) >>> c = torch.bmm(a, b) >>> c.shape torch.size([3, 66, 77]) >>> >>> # torch.mv >>> a = torch.randn(66, 99) >>> b = torch.randn(99) >>> c = torch.mv(a, b) >>> c.shape torch.size([66]) >>> >>> # torch.matmul >>> a = torch.randn(32, 3, 66, 99) >>> b = torch.randn(32, 3, 99, 55) >>> c = torch.matmul(a, b) >>> c.shape torch.size([32, 3, 66, 55]) >>> >>> # @ >>> d = a @ b >>> d.shape torch.size([32, 3, 66, 55])
來看 TensorRT 的實現,以上乘法都可使用 addMatrixMultiply
方法覆蓋,對應 torch.matmul,先來看該方法的定義:
//! //! brief Add a MatrixMultiply layer to the network. //! //! param input0 The first input tensor (commonly A). //! param op0 The operation to apply to input0. //! param input1 The second input tensor (commonly B). //! param op1 The operation to apply to input1. //! //! see IMatrixMultiplyLayer //! //! warning Int32 tensors are not valid input tensors. //! //! return The new matrix multiply layer, or nullptr if it could not be created. //! IMatrixMultiplyLayer* addMatrixMultiply( ITensor& input0, MatrixOperation op0, ITensor& input1, MatrixOperation op1) noexcept { return mImpl->addMatrixMultiply(input0, op0, input1, op1); }
可以看到這個方法有四個傳參,對應兩個張量和其 operation
。來看這個運算元在 TensorRT 中怎麼新增:
// 構造張量 Tensor0 nvinfer1::IConstantLayer *Constant_layer0 = m_network->addConstant(tensorShape0, value0); // 構造張量 Tensor1 nvinfer1::IConstantLayer *Constant_layer1 = m_network->addConstant(tensorShape1, value1); // 新增矩陣乘法 nvinfer1::IMatrixMultiplyLayer *Matmul_layer = m_network->addMatrixMultiply(Constant_layer0->getOutput(0), matrix0Type, Constant_layer1->getOutput(0), matrix2Type); // 獲取輸出 matmulOutput = Matmul_layer->getOputput(0);
再來看看點乘的 pytorch 的實現 (以下實現在終端):
>>> import torch >>> # torch.mul >>> a = torch.randn(66, 99) >>> b = torch.randn(66, 99) >>> c = torch.mul(a, b) >>> c.shape torch.size([66, 99]) >>> d = 0.125 >>> e = torch.mul(a, d) >>> e.shape torch.size([66, 99]) >>> # * >>> f = a * b >>> f.shape torch.size([66, 99])
來看 TensorRT 的實現,以上乘法都可使用 addScale
方法覆蓋,這在影象預處理中十分常用,先來看該方法的定義:
//! //! brief Add a Scale layer to the network. //! //! param input The input tensor to the layer. //! This tensor is required to have a minimum of 3 dimensions in implicit batch mode //! and a minimum of 4 dimensions in explicit batch mode. //! param mode The scaling mode. //! param shift The shift value. //! param scale The scale value. //! param power The power value. //! //! If the weights are available, then the size of weights are dependent on the ScaleMode. //! For ::kUNIFORM, the number of weights equals 1. //! For ::kCHANNEL, the number of weights equals the channel dimension. //! For ::kELEMENTWISE, the number of weights equals the product of the last three dimensions of the input. //! //! see addScaleNd //! see IScaleLayer //! warning Int32 tensors are not valid input tensors. //! //! return The new Scale layer, or nullptr if it could not be created. //! IScaleLayer* addScale(ITensor& input, ScaleMode mode, Weights shift, Weights scale, Weights power) noexcept { return mImpl->addScale(input, mode, shift, scale, power); }
可以看到有三個模式:
再來看這個運算元在 TensorRT 中怎麼新增:
// 構造張量 input nvinfer1::IConstantLayer *Constant_layer = m_network->addConstant(tensorShape, value); // scalemode選擇,kUNIFORM、kCHANNEL、kELEMENTWISE scalemode = kUNIFORM; // 構建 Weights 型別的 shift、scale、power,其中 volume 為元素數量 nvinfer1::Weights scaleShift{nvinfer1::DataType::kFLOAT, nullptr, volume }; nvinfer1::Weights scaleScale{nvinfer1::DataType::kFLOAT, nullptr, volume }; nvinfer1::Weights scalePower{nvinfer1::DataType::kFLOAT, nullptr, volume }; // !! 注意這裡還需要對 shift、scale、power 的 values 進行賦值,若只是乘法只需要對 scale 進行賦值就行 // 新增張量乘法 nvinfer1::IScaleLayer *Scale_layer = m_network->addScale(Constant_layer->getOutput(0), scalemode, scaleShift, scaleScale, scalePower); // 獲取輸出 scaleOutput = Scale_layer->getOputput(0);
有一點你可能會比較疑惑,既然是點乘,那麼輸入只需要兩個張量就可以了,為啥這裡有 input、shift、scale、power 四個張量這麼多呢。解釋一下,input 不用說,就是輸入張量,而 shift 表示加法引數、scale 表示乘法引數、power 表示指數引數,說到這裡,你應該能發現,這個函數除了我們上面講的點乘外還有其他更加豐富的運算功能。
到此這篇關於Pytorch實現常用乘法運算元TensorRT的範例程式碼的文章就介紹到這了,更多相關Pytorch乘法運算元TensorRT內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45