pytorch损失反向传播后梯度为none的问题
更新时间:2021年05月12日 17:03:03 作者:lczygogogo
这篇文章主要介绍了pytorch 出现损失反向传播后梯度为none的问题,具有很好的参考价值,如有错误或未考虑完全的地方,望不吝赐教
错误代码:输出grad为none
a = torch.ones((2, 2), requires_grad=True).to(device) b = a.sum() b.backward() print(a.grad)
由于.to(device)是一次操作,此时的a已经不是叶子节点了
修改后的代码为:
a = torch.ones((2, 2), requires_grad=True) c = a.to(device) b = c.sum() b.backward() print(a.grad)
类似错误:
self.miu = torch.nn.Parameter(torch.ones(self.dimensional)) * 0.01
应该为
self.miu = torch.nn.Parameter(torch.ones(self.dimensional) * 0.01)
补充:pytorch梯度返回none的bug
pytorch1.4.0如果使用了view方法,reshape方法
tensor即使设置了requires_grad,反向传播之后, x返回没有grad梯度,为none
不知道其他版本有无此bug
补充:PyTorch中梯度反向传播的注意点
在一个迭代循环中
optimizer.zero_grad()语句的位置比较随意,只要放在loss.backward()前面即可,它的作用是将梯度归零,否则会在每一个迭代中进行累加,
loss.backward()的作用是反向传播,计算梯度,optimizer.step()的功能是优化器自动完成参数的更新。
optimizer.zero_grad() loss.backward() optimizer.step()
以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。
相关文章
Python中使用threading.Event协调线程的运行详解
这篇文章主要介绍了Python中使用threading.Event协调线程的运行详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧2020-05-05Python如何在for循环中同时使用两个变量与两个控制条件
Python是一种广泛使用的编程语言,其提供了许多强大的方法来处理代码,Python for循环是其中一种非常有用的方法,下面这篇文章主要给大家介绍了关于Python如何在for循环中同时使用两个变量与两个控制条件的相关资料,需要的朋友可以参考下2024-03-03
最新评论