PyTorch 教程:高效拼接张量模拟布朗运动路径

本文介绍如何使用 `torch.cat()` 正确拼接多个时间步的张量,避免原地操作导致的内存共享问题,并构建形状为 `(n_samples, n_steps)` 的布朗运动轨迹张量。

在 PyTorch 中模拟多起点布朗运动时,一个常见误区是使用 x += ... 这类原地(in-place)更新操作——这会导致所有中间状态共享同一块内存,最终列表中所有张量指向相同数值,无法保留演化过程。正确做法是始终生成新张量,并通过 torch.cat() 沿指定维度高效合并。

以下是一个完整、可运行的实现:

import torch
import numpy as np

def brownian_motion(x, t, dt):
    """
    生成多起点布朗运动轨迹。

    Args:
        x (torch.Tensor): 初始位置,形状为 (n,),每个元素为一个起始点
        t (float): 总模拟时间
        dt (float): 时间步长

    Returns:
        torch.Tensor: 形状为 (n, k+1) 的轨迹张量,
                     第 j 列对应时间 t_j = j * dt 处的位置
    """
    k = int(t / dt)
    path = [x.clone()]  # 使用 clone() 确保初始状态独立

    for _ in range(k):
        # 生成标准正态噪声(与 x 同形状)
        xi = torch.randn_like(x)
        # 更新:x_{t+dt} = x_t + sqrt(dt) * N(0,1)
        next_x = path[-1] +

np.sqrt(dt) * xi path.append(next_x) # 沿最后一个维度(列方向)拼接 → 得到 (n, k+1) return torch.cat(path, dim=-1) # 示例用法 data = torch.normal(0, 1, size=(1, 3)) dataset = data.squeeze(0).float() # 转为 (3,) 向量 print("初始位置:", dataset) # tensor([-2.1445, -1.3322, -0.6355]) trajectory = brownian_motion(dataset, t=0.02, dt=0.01) print("布朗轨迹 (3×3):") print(trajectory) # tensor([[-2.1445, -2.1035, -2.1022], # [-1.3322, -1.3121, -1.3210], # [-0.6355, -0.6156, -0.5999]])

关键要点总结:

  • ✅ 使用 torch.randn_like(x) 替代 torch.normal(zeros, ones),更简洁且语义清晰;
  • ✅ 始终用 clone() 或显式新建张量,杜绝 x += ...,防止引用污染;
  • ✅ torch.cat(..., dim=-1) 将 (n,) 张量列表拼成 (n, steps),符合时间序列存储习惯;
  • ⚠️ 若需更高性能(如大批量/长轨迹),可预分配 torch.empty(n, k+1) 并索引赋值,避免频繁拼接开销;
  • ? 该函数天然支持批量初始点(x 为任意 1D 张量),无需循环调用,具备良好向量化特性。

通过这种方式,你不仅能准确复现布朗运动的随机演化,还能确保输出张量结构清晰、内存安全、易于后续训练或可视化。