解决Pytorch自定义层出现多Variable共享内存错误问题

作者:Hungryof 时间:2023-12-14 14:43:46 

错误信息:

RuntimeError: in-place operations can be only used on variables that don't share storage with any other variables, but detected that there are 4 objects sharing it

自动求导是很方便, 但是想想, 如果两个Variable共享内存, 再对这个共享的内存的数据进行修改, 就会引起错误!

一般是由于 inplace操作或是indexing或是转置. 这些都是共享内存的.


@staticmethod
def backward(ctx, grad_output):
 ind_lst = ctx.ind_lst
 flag = ctx.flag

c = grad_output.size(1)
 grad_former_all = grad_output[:, 0:c//3, :, :]
 grad_latter_all = grad_output[:, c//3: c*2//3, :, :]
 grad_swapped_all = grad_output[:, c*2//3:c, :, :]

spatial_size = ctx.h * ctx.w

W_mat_all = Variable(ctx.Tensor(ctx.bz, spatial_size, spatial_size).zero_())
 for idx in range(ctx.bz):
  W_mat = W_mat_all.select(0,idx)
  for cnt in range(spatial_size):
   indS = ind_lst[idx][cnt]

if flag[cnt] == 1:
    # 这里W_mat是W_mat_all通过select出来的, 他们共享内存.
    W_mat[cnt, indS] = 1

W_mat_t = W_mat.t()

grad_swapped_weighted = torch.mm(W_mat_t, grad_swapped_all[idx].view(c//3, -1).t())
  grad_swapped_weighted = grad_swapped_weighted.t().contiguous().view(1, c//3, ctx.h, ctx.w)
  grad_latter_all[idx] = torch.add(grad_latter_all[idx], grad_swapped_weighted.mul(ctx.triple_w))

由于 这里W_mat是W_mat_all通过select出来的, 他们共享内存. 所以当对这个共享的内存进行修改W_mat[cnt, indS] = 1, 就会出错. 此时我们可以通过clone()将W_mat和W_mat_all独立出来. 这样的话, 梯度也会通过 clone()操作将W_mat的梯度正确反传到W_mat_all中.


@staticmethod
def backward(ctx, grad_output):
 ind_lst = ctx.ind_lst
 flag = ctx.flag

c = grad_output.size(1)
 grad_former_all = grad_output[:, 0:c//3, :, :]
 grad_latter_all = grad_output[:, c//3: c*2//3, :, :]
 grad_swapped_all = grad_output[:, c*2//3:c, :, :]

spatial_size = ctx.h * ctx.w

W_mat_all = Variable(ctx.Tensor(ctx.bz, spatial_size, spatial_size).zero_())
 for idx in range(ctx.bz):
  # 这里使用clone了
  W_mat = W_mat_all.select(0,idx).clone()
  for cnt in range(spatial_size):
   indS = ind_lst[idx][cnt]

if flag[cnt] == 1:
    W_mat[cnt, indS] = 1

W_mat_t = W_mat.t()

grad_swapped_weighted = torch.mm(W_mat_t, grad_swapped_all[idx].view(c//3, -1).t())
  grad_swapped_weighted = grad_swapped_weighted.t().contiguous().view(1, c//3, ctx.h, ctx.w)

# 这句话删了不会出错, 加上就吹出错
  grad_latter_all[idx] = torch.add(grad_latter_all[idx], grad_swapped_weighted.mul(ctx.triple_w))

但是现在却出现 4个objects共享内存. 如果将最后一句话删掉, 那么则不会出错.

如果没有最后一句话, 我们看到

grad_swapped_weighted = torch.mm(W_mat_t, grad_swapped_all[idx].view(c//3, -1).t())

grad_swapped_weighted = grad_swapped_weighted.t().contiguous().view(1, c//3, ctx.h, ctx.w)

grad_swapped_weighted 一个新的Variable, 因此并没有和其他Variable共享内存, 所以不会出错. 但是最后一句话,

grad_latter_all[idx] = torch.add(grad_latter_all[idx], grad_swapped_weighted.mul(ctx.triple_w))

你可能会说, 不对啊, 修改grad_latter_all[idx]又没有创建新的Variable, 怎么会出错. 这是因为grad_latter_all和grad_output是共享内存的. 因为 grad_latter_all = grad_output[:, c//3: c*2//3, :, :], 所以这里的解决方案是:


@staticmethod
def backward(ctx, grad_output):
 ind_lst = ctx.ind_lst
 flag = ctx.flag

c = grad_output.size(1)
 grad_former_all = grad_output[:, 0:c//3, :, :]
 # 这两个后面修改值了, 所以也要加clone, 防止它们与grad_output共享内存
 grad_latter_all = grad_output[:, c//3: c*2//3, :, :].clone()
 grad_swapped_all = grad_output[:, c*2//3:c, :, :].clone()

spatial_size = ctx.h * ctx.w

W_mat_all = Variable(ctx.Tensor(ctx.bz, spatial_size, spatial_size).zero_())
 for idx in range(ctx.bz):
  W_mat = W_mat_all.select(0,idx).clone()
  for cnt in range(spatial_size):
   indS = ind_lst[idx][cnt]

if flag[cnt] == 1:
    W_mat[cnt, indS] = 1

W_mat_t = W_mat.t()

grad_swapped_weighted = torch.mm(W_mat_t, grad_swapped_all[idx].view(c//3, -1).t())

grad_swapped_weighted = grad_swapped_weighted.t().contiguous().view(1, c//3, ctx.h, ctx.w)
  grad_latter_all[idx] = torch.add(grad_latter_all[idx], grad_swapped_weighted.mul(ctx.triple_w))

grad_input = torch.cat([grad_former_all, grad_latter_all], 1)

return grad_input, None, None, None, None, None, None, None, None, None, None

补充知识:Pytorch 中 expand, expand_as是共享内存的,只是原始数据的一个视图 view

如下所示:

mask = mask_miss.expand_as(sxing).clone() # type: torch.Tensor
mask[:, :, -2, :, :] = 1 # except for person mask channel

为了避免对expand后对某个channel操作会影响原始tensor的全部元素,需要使用clone()

如果没有clone(),对mask_miss的某个通道赋值后,所有通道上的tensor都会变成1!

# Notice! expand does not allocate more memory but just make the tensor look as if you expanded it.
# You should call .clone() on the resulting tensor if you plan on modifying it
# https://discuss.pytorch.org/t/very-strange-behavior-change-one-element-of-a-tensor-will-influence-all-elements/41190

来源:https://blog.csdn.net/Hungryof/article/details/80012477

标签:Pytorch,Variable,共享,内存
0
投稿

猜你喜欢

  • 分析用Python脚本关闭文件操作的机制

    2021-01-25 07:03:26
  • Python学习之路之pycharm的第一个项目搭建过程

    2022-01-14 23:16:52
  • 解决Keras 中加入lambda层无法正常载入模型问题

    2022-02-21 03:41:11
  • 在SQL Server 2005所有表中搜索某个指定列的方法

    2024-01-21 22:50:25
  • 删除SVN三种方法delSvn(windows+linux)

    2023-02-06 17:06:41
  • python 产生token及token验证的方法

    2023-05-19 17:25:13
  • Oracle SQL性能优化系列学习一

    2010-07-26 13:14:00
  • python引入导入自定义模块和外部文件的实例

    2023-01-25 10:02:18
  • Python的randrange()方法使用教程

    2021-02-08 10:22:22
  • Vuex简单入门

    2024-05-02 16:58:26
  • PHP autoload使用方法及步骤详解

    2023-08-22 13:05:44
  • Opencv对象追踪的示例代码

    2021-03-02 06:35:38
  • Python 列表(list)的常用方法

    2022-05-04 19:05:20
  • go语言编程实现递归函数示例详解

    2024-02-09 14:35:44
  • python实现百万答题自动百度搜索答案

    2021-10-06 03:57:11
  • 关于Vue的异步组件

    2024-05-09 10:52:35
  • python学生信息管理系统实现代码

    2021-07-01 03:41:18
  • Frontpage轻松下载网页或站点

    2007-10-22 13:14:00
  • Python如何爬取51cto数据并存入MySQL

    2024-01-15 02:18:16
  • 在go语言中安装与使用protobuf的方法详解

    2024-04-25 15:27:32
  • asp之家 网络编程 m.aspxhome.com