
在pytorch中创建张量时,size参数是定义其维度的关键。理解其工作方式对于正确构建和操作张量至关重要。
1.1 size参数的语法
size参数可以是一个元组,也可以是多个独立的整数参数。
import torch
# 等价于 torch.ones((2, 3))
tensor_a = torch.ones(2, 3)
print(f"Tensor A:\n{tensor_a}\nShape: {tensor_a.shape}")# 必须使用元组来指定size
tensor_b = torch.randint(10, (2, 3))
print(f"Tensor B:\n{tensor_b}\nShape: {tensor_b.shape}")1.2 size参数的维度解释
PyTorch在解释size元组时遵循一个关键规则:维度是从末尾到开头进行定义的。这意味着:
为了更好地理解这一规则,我们来看一些具体的例子:
| size 参数 | 描述 | 列数 (最末维) | 行数 (倒数第二维) | 其他维度 |
|---|---|---|---|---|
| (2,) | 长度为2的行向量;只有一个维度 | 2 | - | - |
| (2,1) | 2行1列的矩阵;看起来像列向量,但有两维度 | 1 | 2 | - |
| (1,2) | 1行2列的矩阵;看起来像行向量,但有两维度 | 2 | 1 | - |
| (3,2) | 3行2列的矩阵 | 2 | 3 | - |
| (4,3,2) | 4个3行2列的“2D切片”组成的3D张量 | 2 | 3 | 4 |
通过这些例子可以看出,无论张量有多少个维度,最末尾的维度始终对应着“列”,而倒数第二个维度对应着“行”,这与我们习惯的矩阵表示法相符。
许多PyTorch张量方法(如torch.Tensor.sum()、torch.Tensor.mean()等)都需要一个axis或dim参数来指定操作的维度。这些操作通常被称为聚合操作,因为它们会沿着指定维度将多个值聚合成一个或几个值,并通常会减少张量的维度。
2.1 axis参数的行为
当指定axis参数时,操作会沿着该指定的轴进行。这意味着该轴上的所有元素将被聚合,而其他轴保持不变。
以torch.sum()为例,它会沿着指定轴对元素进行求和。如果张量由全1构成(例如通过torch.ones(size)创建),我们可以更直观地观察其行为:
| size | axis | 输出形状 | 输出结果(torch.sum) |
|---|---|---|---|
| (2,) | -1或0 | [] | tensor(2.) |
| (2,1) | -1或1 | [2] | tensor([1., 1.]) |
| (1,2) | -1或1 | [1] | tensor([2.]) |
| (3,2) | -1或1 | [3] | tensor([2., 2., 2.]) |
| (4,3,2) | -1或2 | [4,3] | tensor([[[2., 2., 2.],[2., 2., 2.],[2., 2., 2.],[2., 2., 2.]]]) |
2.2 axis=-1(或最后一个维度)的特殊行为
axis=-1(或等效于最后一个维度索引,例如对于3D张量是axis=2)在聚合操作中具有以下两个关键特性:
沿列轴求和: 它总是沿着最末尾的维度(即列轴)对所有元素进行求和。
维度缩减与轴“移动”: 指定的轴会从结果张量中消失,导致维度减少。原本位于该轴之后的维度会向前“移动”以填充空缺。这可能导致结果张量的形状看起来像是被“旋转”了,但实际上是由于最后一个维度总是被视为列并在显示时占据最内层位置所致。
示例代码:
import torch
# 示例 1: 2D 矩阵
matrix = torch.ones(3, 2) # 3行2列
print(f"Original Matrix:\n{matrix}\nShape: {matrix.shape}")
# 沿最后一个维度(列)求和
sum_cols = torch.sum(matrix, axis=-1)
print(f"\nSum along axis -1 (columns):\n{sum_cols}\nShape: {sum_cols.shape}")
# 结果是 [2., 2., 2.],形状为 [3],表示每行两个元素之和
# 沿倒数第二个维度(行)求和
sum_rows = torch.sum(matrix, axis=0)
print(f"\nSum along axis 0 (rows):\n{sum_rows}\nShape: {sum_rows.shape}")
# 结果是 [3., 3.],形状为 [2],表示每列三个元素之和
# 示例 2: 3D 张量
tensor_3d = torch.ones(4, 3, 2) # 4个 3行2列的切片
print(f"\nOriginal 3D Tensor:\n{tensor_3d}\nShape: {tensor_3d.shape}")
# 沿最后一个维度(axis=2 或 -1)求和
sum_last_dim = torch.sum(tensor_3d, axis=-1)
print(f"\nSum along axis -1:\n{sum_last_dim}\nShape: {sum_last_dim.shape}")
# 结果是 4个 3行 的矩阵,每个元素是 2,形状为 [4, 3]与聚合操作不同,转换操作通常会保持张量的形状不变,但会改变其内部的值。dim参数在这里指定了转换操作作用的维度。
3.1 dim参数的行为
在转换操作中,dim参数指定了沿着哪个维度进行值转换。例如,torch.softmax()函数会将指定维度上的所有值进行归一化,使得该维度上的元素之和为1。
示例:torch.softmax()
softmax函数将输入张量的值转换为概率分布,使得指定维度上所有元素的和为1。
import torch
# 创建一个随机的 3D 张量
data = torch.randn((2, 2, 2))
print(f"Original Data:\n{data}\nShape: {data.shape}")
# 沿最后一个维度 (dim=-1) 应用 softmax
# 此时,每个最内层的 [a, b] 向量的元素之和为 1
softmax_dim_neg1 = data.softmax(dim=-1)
print(f"\nSoftmax along dim -1:\n{softmax_dim_neg1}")
# 验证:检查每个子数组的行和是否接近 1
# print(softmax_dim_neg1.sum(dim=-1))
# 沿倒数第二个维度 (dim=-2) 应用 softmax
# 此时,每个 [ [a, b], [c, d] ] 块中,垂直方向的元素之和为 1
softmax_dim_neg2 = data.softmax(dim=-2)
print(f"\nSoftmax along dim -2:\n{softmax_dim_neg2}")
# 验证:检查每个子数组的列和是否接近 1
# print(softmax_dim_neg2.sum(dim=-2))观察上述输出,你会发现:
理解PyTorch张量维度处理的核心在于掌握以下几点:
在实际开发中,正确理解和运用这些维度概念是高效使用PyTorch的关键。建议通过不断实践不同形状的张量和各种操作来加深理解,尤其是在处理多维数据时,清晰地思考每个维度代表的含义将极大帮助调试和模型构建。
以上就是PyTorch Tensor维度操作深度解析:从创建到聚合与转换的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号