<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
最近在復現一篇論文程式碼的過程中,想要輸出中間圖片的結果圖,通過debug發現在pytorch網路中是用Tensor儲存的四維張量。
第一維代表的是batch_size,然後是通道數和影象尺寸,首先要進行維度順序的轉換
通過permute函數實現
outputRs = outputR.permute(0,2,3,1)
shape轉為96 * 128 * 3
#由於程式碼中的中間結果是帶有梯度的要進行detach()操作 k = outputRs.cpu().detach().numpy()
Image需匯入from PIL import Image
for i in range(10): res = k[i] #得到batch中其中一步的圖片 image = Image.fromarray(np.uint8(res)).convert('RGB') #image.show() #通過時間命名儲存結果 timestamp = datetime.datetime.now().strftime("%M-%S") savepath = timestamp + '_r.jpg' image.save(savepath)
PyTorch中的張量(Tensor)如同陣列和矩陣一樣,是一種特殊的資料結構。在PyTorch中,神經網路的輸入、輸出以及網路的引數等資料,都是使用張量來進行描述。
torch包中定義了10種具有CPU和GPU變體的tensor型別。
torch.Tensor或torch.tensor是一種包含單一資料型別元素的多維矩陣。
(1). torch.Tensor是預設tensor型別torch.FloatTensor的別名。
(2). torch.tensor總是拷貝資料。
(3).每一個tensor都有一個關聯的torch.Storage,它儲存著它的資料。
(4).改變tensor的方法是使用下劃線字尾標記,如torch.FloatTensor.abs_()就地(in-place)計算絕對值並返回修改後的tensor,而torch.FloatTensor.abs()在新tensor中計算結果。
(5).有幾百種tensor相關的運算操作,包括各種數學運算、線性代數、隨機取樣等。
(1).要使用預先存在的資料建立tensor,使用torch.tensor()。
(2).要建立具有特定大小的tensor,使用torch.*,如torch.rand()。
(3).要建立與另一個tensor具有相同大小(和相似型別)的tensor,使用torch.*_like,如torch.rand_like()。
(4).要建立與另一個tensor型別相似但大小不同的tensor,使用tensor.new_*,如tensor.new_ones()。
以上內容及以下測試程式碼主要參考:
1. torch.Tensor — PyTorch 1.10.0 documentation
2. https://pytorch.apachecn.org/
tensor具體用法見以下test_tensor.py測試程式碼:
import torch import numpy as np var = 2 # reference: https://pytorch.apachecn.org/ if var == 1: # 張量初始化 # 1.直接生成張量, 注意: torch.tensor與torch.Tensor的區別: torch.Tensor是torch.FloatTensor的別名;而torch.tensor則根據輸入資料推斷資料型別 data = [[1, 2], [3, 4]] x_data = torch.tensor(data); print(f"x_data: {x_data}, type: {x_data.type()}") # type: torch.LongTensor y_data = torch.Tensor(data); print(f"y_data: {y_data}, type: {y_data.type()}") # type: torch.FloatTensor z_data = torch.IntTensor(data); print(f"z_data: {z_data}, type: {z_data.type()}") # type: torch.IntTensor # 2.通過Numpy陣列來生成張量,反過來也可以由張量生成Numpy陣列 np_array = np.array(data) x_np = torch.from_numpy(np_array); print("x_np:n", x_np) y_np = torch.tensor(np_array); print("y_np:n", y_np) # torch.tensor總是拷貝資料 z_np = torch.as_tensor(np_array); print("z_np:n", z_np) # 使用torch.as_tensor可避免拷貝資料 # 3.通過已有的張量來生成新的張量: 新的張量將繼承已有張量的屬性(結構、型別),也可以重新指定新的資料型別 x_ones = torch.ones_like(x_data); print(f"x_ones: {x_ones}, type: {x_ones.type()}") # 保留x_data的屬性 x_rand = torch.rand_like(x_data, dtype=torch.float); print(f"x_rand: {x_rand}, type: {x_rand.type()}") # 重寫x_data的資料型別: long -> float tensor = torch.tensor((), dtype=torch.int32); print(f"shape of tensor: {tensor.shape}, type: {tensor.type()}") new_tensor = tensor.new_ones((2, 3)); print(f"shape of new_tensor: {new_tensor.shape}, type: {new_tensor.type()}") # 4.通過指定資料維度來生成張量 shape = (2, 3) # shape是元組型別,用來描述張量的維數 rand_tensor = torch.rand(shape); print(f"rand_tensor: {rand_tensor}, type: {rand_tensor.type()}") ones_tensor = torch.ones(shape, dtype=torch.int); print(f"ones_tensor: {ones_tensor}, type: {ones_tensor.type()}") zeros_tensor = torch.zeros(shape, device=torch.device("cpu")); print("zeros_tensor:", zeros_tensor) # 5.可以使用requires_grad=True建立張量,以便torch.autograd記錄對它們的操作以進行自動微分 x = torch.tensor([[1., -1.], [1., 1.]], requires_grad=True) out = x.pow(2).sum(); print(f"out: {out}") # out.backward(); print(f"x: {x}nx.grad: {x.grad}") elif var == 2: # 張量屬性: 從張量屬性我們可以得到張量的維數、資料型別以及它們所儲存的裝置(CPU或GPU) tensor = torch.rand(3, 4) print(f"shape of tensor: {tensor.shape}") print(f"datatype of tensor: {tensor.dtype}") # torch.float32 print(f"device tensor is stored on: {tensor.device}") # cpu或cuda print(f"tensor layout: {tensor.layout}") # tensor如何在記憶體中儲存 print(f"tensor dim: {tensor.ndim}") # tensor維度 elif var == 3: # 張量運算: 有超過100種張量相關的運算操作,例如轉置、索引、切片、數學運算、線性代數、隨機取樣等 # 所有這些運算都可以在GPU上執行(相對於CPU來說可以達到更高的運算速度) tensor = torch.rand((4, 4), dtype=torch.float); print(f"src: {tensor}") # 判斷當前環境GPU是否可用,然後將tensor匯入GPU內執行 if torch.cuda.is_available(): tensor = tensor.to("cuda") # 1.張量的索引和切片 tensor[:, 1] = 0; print(f"index: {tensor}") # 將第1列(從0開始)的資料全部賦值為0 # 2.張量的拼接: 可以通過torch.cat方法將一組張量按照指定的維度進行拼接,也可以參考torch.stack方法,但與torch.cat稍微有點不同 cat = torch.cat([tensor, tensor], dim=1); print(f"cat:n {cat}") # 3.張量的乘積和矩陣乘法 print(f"tensor.mul(tensor):n {tensor.mul(tensor)}") # 逐個元素相乘結果 print(f"tensor * tensor:n {tensor * tensor}") # 等價寫法 print(f"tensor.matmul(tensor.T):n {tensor.matmul(tensor.T)}") # 張量與張量的矩陣乘法 print(f"tensor @ tensor.T:n {tensor @ tensor.T}") # 等價寫法 # 4.自動賦值運算: 通常在方法後有"_"作為字尾,例如:x.copy_(y), x.t_()操作會改變x的取值(in-place) print(f"tensor:n {tensor}") print(f"tensor:n {tensor.add_(5)}") elif var == 4: # Tensor與Numpy的轉化: 張量和Numpy array陣列在CPU上可以共用一塊記憶體區域,改變其中一個另一個也會隨之改變 # 1.由張量變換為Numpy array陣列 t = torch.ones(5); print(f"t: {t}") n = t.numpy(); print(f"n: {n}") t.add_(1) # 修改張量的值,則Numpy array陣列值也會隨之改變 print(f"t: {t}") print(f"n: {n}") # 2.由Numpy array陣列轉為張量 n = np.ones(5); print(f"n: {n}") t = torch.from_numpy(n); print(f"t: {t}") np.add(n, 1, out=n) # 修改Numpy array陣列的值,則張量值也會隨之改變 print(f"n: {n}") print(f"t: {t}") print("test finish")
GitHub:GitHub - fengbingchun/PyTorch_Test: PyTorch's usage
以上為個人經驗,希望能給大家一個參考,也希望大家多多支援it145.com。
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45