pytorch自定义loss损失函数

 更新时间:2022年02月11日 11:20:32   作者:呆萌的代Ma  
这篇文章主要介绍了pytorch自定义loss损失函数,自定义loss的方法有很多,本文要介绍的是把loss作为一个pytorch的模块,下面详细资料需要的小伙伴可以参考一下

自定义loss的方法有很多,但是在博主查资料的时候发现有挺多写法会有问题,靠谱一点的方法是把loss作为一个pytorch的模块,

比如:

class CustomLoss(nn.Module): # 注意继承 nn.Module
    def __init__(self):
        super(CustomLoss, self).__init__()

    def forward(self, x, y):
        # .....这里写x与y的处理逻辑,即loss的计算方法
        return loss # 注意最后只能返回Tensor值,且带梯度,即 loss.requires_grad == True

示例代码:

以一个pytorch求解线性回归的代码为例:

import torch
import torch.nn as nn
import numpy as np
import os

os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"


def get_x_y():
    np.random.seed(0)
    x = np.random.randint(0, 50, 300)
    y_values = 2 * x + 21
    x = np.array(x, dtype=np.float32)
    y = np.array(y_values, dtype=np.float32)
    x = x.reshape(-1, 1)
    y = y.reshape(-1, 1)
    return x, y


class LinearRegressionModel(nn.Module):
    def __init__(self, input_dim, output_dim):
        super(LinearRegressionModel, self).__init__()
        self.linear = nn.Linear(input_dim, output_dim)  # 输入的个数,输出的个数

    def forward(self, x):
        out = self.linear(x)
        return out


if __name__ == '__main__':
    input_dim = 1
    output_dim = 1
    x_train, y_train = get_x_y()

    model = LinearRegressionModel(input_dim, output_dim)
    epochs = 1000  # 迭代次数
    optimizer = torch.optim.SGD(model.parameters(), lr=0.001)
    model_loss = nn.MSELoss() # 使用MSE作为loss
    # 开始训练模型
    for epoch in range(epochs):
        epoch += 1
        # 注意转行成tensor
        inputs = torch.from_numpy(x_train)
        labels = torch.from_numpy(y_train)
        # 梯度要清零每一次迭代
        optimizer.zero_grad()
        # 前向传播
        outputs: torch.Tensor = model(inputs)
        # 计算损失
        loss = model_loss(outputs, labels)
        # 返向传播
        loss.backward()
        # 更新权重参数
        optimizer.step()
        if epoch % 50 == 0:
            print('epoch {}, loss {}'.format(epoch, loss.item()))

步骤1:添加自定义的类

我们就用自定义的写法来写与MSE相同的效果,MSE计算公式如下:

添加一个类:

class CustomLoss(nn.Module):
    def __init__(self):
        super(CustomLoss, self).__init__()
        self.mse_loss = nn.MSELoss()

    def forward(self, x, y):
        mse_loss = torch.mean(torch.pow((x - y), 2)) # x与y相减后平方,求均值即为MSE
        return mse_loss

步骤2:修改使用的loss函数

只需要把原始代码中的:

model_loss = nn.MSELoss() # 使用MSE作为loss

改为:

model_loss = CustomLoss()  # 自定义loss

即可

完整代码:

import torch
import torch.nn as nn
import numpy as np
import os

os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"


def get_x_y():
    np.random.seed(0)
    x = np.random.randint(0, 50, 300)
    y_values = 2 * x + 21
    x = np.array(x, dtype=np.float32)
    y = np.array(y_values, dtype=np.float32)
    x = x.reshape(-1, 1)
    y = y.reshape(-1, 1)
    return x, y


class LinearRegressionModel(nn.Module):
    def __init__(self, input_dim, output_dim):
        super(LinearRegressionModel, self).__init__()
        self.linear = nn.Linear(input_dim, output_dim)  # 输入的个数,输出的个数

    def forward(self, x):
        out = self.linear(x)
        return out


class CustomLoss(nn.Module):
    def __init__(self):
        super(CustomLoss, self).__init__()
        self.mse_loss = nn.MSELoss()

    def forward(self, x, y):
        mse_loss = torch.mean(torch.pow((x - y), 2))
        return mse_loss


if __name__ == '__main__':
    input_dim = 1
    output_dim = 1
    x_train, y_train = get_x_y()

    model = LinearRegressionModel(input_dim, output_dim)
    epochs = 1000  # 迭代次数
    optimizer = torch.optim.SGD(model.parameters(), lr=0.001)
    # model_loss = nn.MSELoss() # 使用MSE作为loss
    model_loss = CustomLoss()  # 自定义loss
    # 开始训练模型
    for epoch in range(epochs):
        epoch += 1
        # 注意转行成tensor
        inputs = torch.from_numpy(x_train)
        labels = torch.from_numpy(y_train)
        # 梯度要清零每一次迭代
        optimizer.zero_grad()
        # 前向传播
        outputs: torch.Tensor = model(inputs)
        # 计算损失
        loss = model_loss(outputs, labels)
        # 返向传播
        loss.backward()
        # 更新权重参数
        optimizer.step()
        if epoch % 50 == 0:
            print('epoch {}, loss {}'.format(epoch, loss.item()))

到此这篇关于pytorch自定义loss损失函数的文章就介绍到这了,更多相关pytorch loss损失函数内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Python3中urllib库添加请求头的两种方式

    Python3中urllib库添加请求头的两种方式

    Python 3中的urllib模块可以用来处理URL,包括下载和上传文件、创建和读取cookie、访问Web API等,本文给大家介绍Python3中urllib库添加请求头的两种方式,感兴趣的朋友一起看看吧
    2023-10-10
  • python中int与str互转方法

    python中int与str互转方法

    最近学习python中的数据类型时,难免联想到java中的基本型数据类型与引用型数据类型。接下来通过本文给大家介绍python中int与str互转,需要的朋友可以参考下
    2018-07-07
  • python分析apache访问日志脚本分享

    python分析apache访问日志脚本分享

    这篇文章主要介绍了python分析apache访问日志脚本分享,本文直接给出实现代码,需要的朋友可以参考下
    2015-02-02
  • windows下Anaconda的安装与配置正解(Anaconda入门教程)

    windows下Anaconda的安装与配置正解(Anaconda入门教程)

    最近很多朋友学习python,很多朋友也推荐使用anaconda这个工具,但安装以后也不会使用,这里脚本之家小编就为大家整理一下比较详细的教程,方便自己也方便需要的朋友,希望大家以后多多支持脚本之家
    2018-04-04
  • python和numpy matplotlib版本匹配及安装指定版本库

    python和numpy matplotlib版本匹配及安装指定版本库

    Matplotlib 是 Python 的绘图库,它经常与NumPy一起使用,从而提供一种能够代替Matlab的方案,这篇文章主要给大家介绍了关于python和numpy matplotlib版本匹配及安装指定版本库的相关资料,文中通过图文介绍的非常详细,需要的朋友可以参考下
    2023-10-10
  • 详解在OpenCV中实现的图像标注技术

    详解在OpenCV中实现的图像标注技术

    图像标注在计算机视觉中很重要,计算机视觉是一种技术,它允许计算机从数字图像或视频中获得高水平的理解力,并以人类的方式观察和解释视觉信息,本文将重点讨论在OpenCV的帮助下创建这些注释,感兴趣的朋友一起看看吧
    2022-06-06
  • Pandas保存csv数据的三种方式详解

    Pandas保存csv数据的三种方式详解

    CSV文件以纯文本形式存储表格数据(数字和文本),是一种通用的、相对简单的文件格式,被用户、商业和科学广泛应用。本文介绍了三种Pandas保存CSV文件数据的方法,需要的可以参考一下
    2022-03-03
  • python为什么会环境变量设置不成功

    python为什么会环境变量设置不成功

    在本篇文章里小编给大家分享的是一篇关于python环境变量设置不成功怎么办的解决方法内容,有兴趣的朋友们可以跟着学习下。
    2020-06-06
  • python pandas合并Sheet,处理列乱序和出现Unnamed列的解决

    python pandas合并Sheet,处理列乱序和出现Unnamed列的解决

    这篇文章主要介绍了python pandas合并Sheet,处理列乱序和出现Unnamed列的解决方案,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2021-03-03
  • python判断无向图环是否存在的示例

    python判断无向图环是否存在的示例

    今天小编就为大家分享一篇python判断无向图环是否存在的示例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-11-11

最新评论