Pytorch中关于inplace的操作

 更新时间:2023年08月02日 16:13:44   作者:二十米  
这篇文章主要介绍了Pytorch中关于inplace的操作方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教

Pytorch中inplace操作

之前在写训练代码时,遇到了inplace operation导致的问题,所以就了解了一下pytorch的inplace operation,记录一下inplace操作的知识。

报错信息如下:

RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation.

Inplace操作概述

稍微了解过python的人应该会知道python的变量名是一个类似索引的东西,其指向内存中的一个对象。

而对该变量重新赋值,实际上是将该变量名指向内存中的其它对象,原对象本身其实并未改变。而Inplace操作并非如此,该操作会直接改变原对象的内容,这样能减少内存的消耗,但也会带来一些隐患。

非inplace操作如下图所示,运算操作先是开辟了一块新的内存存放运算后的结果,然后再将引用指向新内存,而旧内存的内容保持不变。

而inplace操作则不同,运算操作会直接在旧内存上进行更改,而并不会另外开辟一个新内存进行运算结果的存放。

inplace操作的优缺点

要使用好inplace操作,首先肯定需要知道其存在的优点以及缺点。根据inplace操作的原理,其实不难发现其优点就在于节省内存,尤其是在处理高维数据时能显著减少额外的内存开销,这在训练神经网络时是很有价值的一个特性。

但在节省内存的同时,inplace操作也带来了一些隐患,pytorch的官方文档是这样说的:

  • inplace操作可能会覆盖计算梯度所需的值。
  • 每个inplace操作实际上都需要实现重写计算图。Out-of-place版本只是简单地分配新对象并保持对旧图的引用,而inplace操作则要求将所有输入的创建者更改为表示该操作的函数。

也就是说,在Autograd中支持inplace操作很困难,有时候会在不经意间导致自动求导失败,得到上文所提到的报错。同时,Autograd积极的缓冲区释放和重用使其非常高效,inplace操作实际上并不能降低太多内存的消耗,因此在大多数情况下不鼓励使用。除非在沉重的内存压力下运行,否则可能永远不需要使用inplace操作。

PS:如果你使用了inplace操作而没有报错的话,那么你可以确定你的梯度计算是正确的。但是,这仅仅表示Autograd计算梯度无误,如果出现了该内存被其他变量引用而未注意,依旧可能存在计算一致性的风险。

常见的inplace操作

inplace操作有优点也有缺点,但总体来说还是弊大于利,所以如果显存足够的话,还是尽量少用inplace操作。那inplace操作有哪些呢?

  • 1.数值运算,如x+=1属于inplace操作,会直接对x的值进行操作;而y=x+5则不属于inplace操作(PS:x+=1虽然是inplace操作,但求导时其导数为1,导数值并不与x的值相关,所以不会对反向传播产生影响,故这种情况的影响不大)
  • 2.pytorch提供的一些inplace选项,如nn.ReLU(inplace=True)nn.LeakyReLU(inplace=True),这些选项的安全性要高一些,但也需要注意中间变量后续是否需要,如果后面还需要使用中间变量,就应当设置inplace=False
  • 3.具有 _ 后缀的方法,如x.copy_(y)x.t_(),将直接改变x。同时,一些常见的操作如x.add_(y)x.mul_(y)也会直接改变x,除非有特定需求,否则不建议使用这类inplace操作,隐患比前两种情况高很多。

以上是常见的一些inplace操作,虽然不建议使用inplace操作,但还是需要了解一下,以免日后遇到问题。

注意:

inplace操作会直接修改原内存处的值,虽然会节省一些内存,但也会带来一些隐患,如自动求导出错等。因此如果不是内存十分紧缺,不建议使用inplace操作。

pytorch的inplace的问题

最近将一个模型训练代码从caffe平台移植到pytorch平台过程中遇到了一个诡异的inplace坑,特别记录一下防止大家掉坑。

relu等激活函数的inplace

看到官方的relu入参是中nn.ReLU(inplace=True)是inplace操作,我一想这不是能节省我的资源占用,毫不犹豫的选择了True。

搭好模型运行,结果是在backward计算导数的时候。表示inplace操作导致求导结果有问题。

改为**nn.ReLU(inplace=False)**问题在pytorch1.3和pytorch1.8解决了。

“+=”操作的默认inplace

后来因为换了pytorch1.10版本后又报错了。报错形式和上面一样。

后来查了一下“+=”也是inplace操作,将工程中网络的前向传播方式中:x += feature16改为:“x = x + feature16” 。

问题就消失了。

报错形式

RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation: [torch.cuda.HalfTensor [×,×,×,×]], which is output 0 of ReluBackward0, is at version 1; expected version 0 instead. Hint: enable anomaly detection to find the operation that failed to compute its gradient, with torch.autograd.set_detect_anomaly(True).

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。

相关文章

  • 打包迁移Python env环境的三种方法总结

    打包迁移Python env环境的三种方法总结

    平常工作中可能遇到python虚拟环境迁移的场景,总结了如下几个方法,下面这篇文章主要给大家介绍了关于打包迁移Python env环境的三种方法,需要的朋友可以参考下
    2024-08-08
  • 对Python中for复合语句的使用示例讲解

    对Python中for复合语句的使用示例讲解

    今天小编就为大家分享一篇对Python中for复合语句的使用示例讲解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-11-11
  • Python快速从注释生成文档的方法

    Python快速从注释生成文档的方法

    这篇文章主要介绍了Python快速从注释生成文档的方法的相关资料,非常的简单实用,需要的朋友可以参考下
    2016-12-12
  • 教你如何用Pytorch搭建数英混合验证码图片识别模型

    教你如何用Pytorch搭建数英混合验证码图片识别模型

    大家都知道checkpoints存放的是模型文件,data存放的是数据集,本文给大家分享如何利用Pytorch搭建数英混合验证码图片识别模型包括普通卷积模块,深度可分离卷积模块,空间通道注意力模块,残差模块,感兴趣的朋友跟随小编一起看看吧
    2024-04-04
  • Linux下通过python获取本机ip方法示例

    Linux下通过python获取本机ip方法示例

    这篇文章主要给大家介绍了关于在Linux下通过python获取本机ip的相关资料,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面来一起学习学习吧
    2019-09-09
  • 深入浅析Python传值与传址

    深入浅析Python传值与传址

    这篇文章主要介绍了Python传值与传址的相关知识,包括传值与传址的区别介绍,需要的朋友可以参考下
    2018-07-07
  • Python文件读取read() readline() readlines()函数使用场景技巧示例

    Python文件读取read() readline() readlines()函数使用场景技巧示例

    这篇文章主要介绍了Python文件读取read() readline()及readlines()函数使用场景技巧示例,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2023-08-08
  • pytorch深度神经网络入门准备自己的图片数据

    pytorch深度神经网络入门准备自己的图片数据

    这篇文章主要为大家介绍了pytorch深度神经网络入门准备自己的图片数据示例过程,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2022-06-06
  • python 调试器pdb的简单使用

    python 调试器pdb的简单使用

    这篇文章主要介绍了python 调试器pdb的简单使用,帮助大家更好的理解和学习使用python,感兴趣的朋友可以了解下
    2021-03-03
  • 超详细注释之OpenCV构建透明的叠加层

    超详细注释之OpenCV构建透明的叠加层

    这篇文章主要介绍了OpenCV构建透明的叠加层,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2021-09-09

最新评论