小言_互联网的博客

解读Tensor张量的维数

323人阅读  评论(0)

学习Pytorch就免不了和张量碰面,但这个高维张量并不明白,所以找了相关资料了解了一下

 

维度要看张量的最左边有多少个左中括号,有n个,则这个张量就是n维张量。

张量的形状以  [D0, D1, … Dn-1]  的形式表示,D0 到Dn 是任意的正整数。

如形状[3,4]表示第一维有3个元素,第二维有4个元素,[3,4]表示一个3行4列的矩阵。

在形状的中括号中有多少个数字,就代表这个张量是多少维的张量。

形状的第一个元素要看张量最外边的中括号中有几个元素(被最外边的中括号里边的内中括号括起来的所有数据算作一个元素)被逗号隔开,有n1个则这个张量就是n1维的,形状的第一个元素就是n1;
形状的第二个元素要看张量中最左边的第二个中括号中有几个被逗号隔开的元素,有n2个则shape的第二个元素就是n2;形状的第二个元素之后的第3,4…n个元素依次类推,分别看第n个中括号中有几个元素即可:

1 # 形状为[],零维

[1,2,3] # 形状为[3],一维

[[1,2],[3,4]] # 形状为[2,2],二维

[[[1,2],[3,4]],[[1,2],[3,4]]] # 形状为[2,2,2],三维

 


转载:https://blog.csdn.net/qq_32146369/article/details/102097676
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场