torch.size()和tensor.shape的区别

@[TOC]torch.size()和tensor.shape的区别

今天我就来讲一下怎么理解在pytorch中对张量求维度的两个方法
首先来看一个例子:
In:a = torch.tensor([[1,2,3],[4,5,6]])
In:a.size()
Out:torch.Size([2, 3])
In:a.shape
Out:torch.Size([2, 3])
In:a.size(0)
Out:2
In:a.size(1)
Out:3
In:a.shape[0]
Out:2
In:a.shape[1]
Out: 3
通过例子可以看出来shape和size没有什么明显的区别,除了后面的括号的形式不同以外,那么它俩在根本上的区别是什么呢?
下面就让我们来看看

shape

shape是一个Tensor类中的属性,因为我们用tensor函数创建张量的时候(注意tensor是一个函数,Tensor是一个类),用到了Tensor类,然后创建的实例就可以使用Tensor中的属性

size

size是Tensor从上面的类中继承来的一个方法(不必纠结这个)中的一个方法。

Original: https://blog.csdn.net/weixin_48192256/article/details/121213234
Author: 程序猿小米
Title: torch.size()和tensor.shape的区别

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/709108/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球