
pytorch中的tensor是处理数据的基础结构,其维度的正确理解和操作是高效开发的关键。本文将从tensor的创建、聚合到变换三个核心方面,详细解析pytorch如何处理维度。
在PyTorch中创建Tensor时,size参数是定义其形状的关键。这个参数通常接受一个整数元组,每个整数代表对应维度的大小。理解size参数的解读方式至关重要:PyTorch将size元组中的维度从最后一个元素到第一个元素进行解释。具体来说,元组的最后一个元素代表Tensor的列数,倒数第二个元素代表行数,以此类推。
示例代码:
import torch
# 常见的Tensor创建方式
# 可以省略括号,直接作为位置参数传入:
t1 = torch.ones(2, 3) # 创建一个2行3列的矩阵
print(f"torch.ones(2, 3) shape: {t1.shape}") # 输出: torch.Size([2, 3])
# 当size参数需要作为元组传递时(例如,某些函数只接受一个size元组参数):
t2 = torch.randint(10, (2, 3)) # 创建一个2行3列的随机整数矩阵
print(f"torch.randint(10, (2, 3)) shape: {t2.shape}") # 输出: torch.Size([2, 3])维度解读规则:
不同size参数的Tensor形状示例:
| size 参数 | 描述 | 列数 (最内层) | 行数 (次内层) | 更高维度 | 实际形状 (.shape) |
|---|---|---|---|---|---|
| (2,) | 长度为2的一维Tensor | 2 | - | - | (2,) |
| (2,1) | 2行1列的矩阵 | 1 | 2 | - | (2,1) |
| (1,2) | 1行2列的矩阵 | 2 | 1 | - | (1,2) |
| (3,2) | 3行2列的矩阵 | 2 | 3 | - | (3,2) |
| (4,3,2) | 4个3行2列的矩阵 | 2 | 3 | 4 | (4,3,2) |
注意事项:
许多PyTorch Tensor的方法,如torch.sum()、torch.mean()等,都需要一个axis(或dim)参数来指定操作沿着哪个维度进行。当指定axis时,操作将沿该维度进行,并通常会减少Tensor的维度。
torch.sum() 的行为解析:
以torch.sum(axis=axis)为例,其行为可以总结为两点:
axis=-1 的特殊意义:axis=-1 总是指代Tensor的最后一个维度(即最内层的维度,在二维矩阵中通常是列维度)。
示例:torch.sum() 操作
假设我们有一个由1组成的Tensor t = torch.ones(size):
| size 参数 | axis | 输出形状 (.shape) | 输出值 | 解释 |
|---|---|---|---|---|
| (2,) | -1或0 | [] | tensor(2.) | 沿唯一维度求和,结果为标量。 |
| (2,1) | -1或1 | [2] | tensor([1., 1.]) | 沿列(axis=1)求和,每行只有一个元素,结果保留行维度。 |
| (1,2) | -1或1 | [1] | tensor([2.]) | 沿列(axis=1)求和,每行有2个元素,结果为单元素向量。 |
| (3,2) | -1或1 | [3] | tensor([2., 2., 2.]) | 沿列(axis=1)求和,每行2个元素,结果为3个元素的向量。 |
| (4,3,2) | -1或2 | [4,3] | tensor([[2., 2., 2.],[2., 2., 2.],[2., 2., 2.],[2., 2., 2.]]) | 沿最内层(axis=2)求和,每个子矩阵的2个元素相加,维度从(4,3,2)变为(4,3)。 |
关键点:
Tensor变换操作,如torch.softmax()、torch.log_softmax()等,通常会改变Tensor的值,但保留其原始形状。在这些操作中,dim参数用于指定变换应该沿哪个维度进行
以上就是PyTorch Tensor维度操作详解:创建、聚合与变换的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号