<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
torch.tensor([[0.1, 1.2], [2.2, 3.1], [4.9, 5.2]]) Out[111]: tensor([[0.1000, 1.2000], [2.2000, 3.1000], [4.9000, 5.2000]]) torch.tensor([0, 1]) Out[112]: tensor([0, 1]) torch.tensor([[0.11111, 0.222222, 0.3333333]], dtype=torch.float64, device=torch.device('cpu')) Out[113]: tensor([[0.1111, 0.2222, 0.3333]], dtype=torch.float64) torch.tensor(3.14159) Out[114]: tensor(3.1416) torch.tensor([]) Out[115]: tensor([]) torch.tensor([[0.11111, 0.222222, 0.3333333]], dtype=torch.float64, device=torch.device('cpu'), requires_grad=True, pin_memory=False) Out[117]: tensor([[0.1111, 0.2222, 0.3333]], dtype=torch.float64, requires_grad=True)
dtype
(torch.dtype,可選)–返回張量的所需資料型別。預設值:如果沒有,則根據資料推斷資料型別。device
(torch.device,可選)–構造張量的裝置。如果沒有,並且資料是張量,那麼就使用資料裝置。如果沒有且資料不是張量,則結果張量在CPU上構造。require_grad
(bool,可選)– 是否需要保留梯度資訊。預設值:False。pin_memory
(bool,可選)–如果設定了,返回的張量將分配到pind記憶體中。僅適用於CPU張量。預設值:False。>>> a = numpy.array([1, 2, 3]) >>> t = torch.as_tensor(a) >>> t tensor([1, 2, 3]) >>> t[0] = -1 >>> a array([-1, 2, 3]) >>> a = numpy.array([1, 2, 3]) >>> t = torch.as_tensor(a, device=torch.device('cuda')) >>> t[0] = -1 >>> a array([1, 2, 3]) t = torch.as_tensor([2, 2, 2], device=torch.device('cuda')) >>> t tensor([2, 2, 2], device='cuda:0') a = numpy.array([1, 2, 3]) t = torch.from_numpy(a) t Out[38]: tensor([1, 2, 3]) t[0] = -1 a Out[40]: array([-1, 2, 3])
torch.zeros(2, 3) Out[41]: tensor([[0., 0., 0.], [0., 0., 0.]]) torch.zeros(5) Out[42]: tensor([0., 0., 0., 0., 0.]) torch.ones(2, 3) Out[43]: tensor([[1., 1., 1.], [1., 1., 1.]]) torch.ones(5) Out[44]: tensor([1., 1., 1., 1., 1.])
參數列:
out
:輸出的物件dtype:
返回的張量的所需資料型別。預設值:如果沒有,則使用全域性預設值(請參閱torch.set_Default_tensor_type())。layout
device
: 構造張量的裝置。如果沒有,並且資料是張量,那麼就使用資料裝置。如果沒有且資料不是張量,則結果張量在CPU上構造。requires_grad
: 是否需要保留梯度資訊。預設值:False。torch.arange(5) Out[45]: tensor([0, 1, 2, 3, 4]) torch.arange(1, 4) Out[46]: tensor([1, 2, 3]) torch.arange(1, 2.5, 0.5) Out[47]: tensor([1.0000, 1.5000, 2.0000])
start
: 點集的開始值。預設值:0。end
: 點集的結束值step
: 每對相鄰點之間的間隙。預設值:1,可以是小數。torch.linspace(3, 10, steps=5) Out[49]: tensor([ 3.0000, 4.7500, 6.5000, 8.2500, 10.0000]) torch.linspace(-10, 10, steps=5) Out[50]: tensor([-10., -5., 0., 5., 10.]) torch.linspace(start=-10, end=10, steps=1) Out[51]: tensor([-10.])
torch.eye(3) Out[58]: tensor([[1., 0., 0.], [0., 1., 0.], [0., 0., 1.]])
torch.empty((2,3), dtype=torch.int64) Out[59]: tensor([[0, 0, 0], [0, 0, 2]])
torch.full((2, 3), 3.141592) Out[67]: tensor([[3.1416, 3.1416, 3.1416], [3.1416, 3.1416, 3.1416]])
到此這篇關於pytorch建立tensor函數詳情的文章就介紹到這了,更多相關pytorch建立tensor函數內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45