人工智能学习Pytorch梯度下降优化示例详解

作者:Swayzzu 时间:2023-02-11 16:28:02 

一、激活函数

1.Sigmoid函数

函数图像以及表达式如下:

人工智能学习Pytorch梯度下降优化示例详解

通过该函数,可以将输入的负无穷到正无穷的输入压缩到0-1之间。在x=0的时候,输出0.5

通过PyTorch实现方式如下:

人工智能学习Pytorch梯度下降优化示例详解

2.Tanh函数

在RNN中比较常用,由sigmoid函数变化而来。表达式以及图像如下图所示:

人工智能学习Pytorch梯度下降优化示例详解

该函数的取值是-1到1,导数是:1-Tanh**2。

通过PyTorch的实现方式如下:

人工智能学习Pytorch梯度下降优化示例详解

3.ReLU函数

该函数可以将输入小于0的值截断为0,大于0的值保持不变。因此在小于0的地方导数为0,大于0的地方导数为1,因此求导计算非常方便。

人工智能学习Pytorch梯度下降优化示例详解

通过PyTorch的实现方式如下:

人工智能学习Pytorch梯度下降优化示例详解

二、损失函数及求导

通常,我们使用mean squared error也就是均方误差来作为损失函数。

1.autograd.grad

torch.autograd.grad(loss, [w1,w2,...])

输入的第一个是损失函数,第二个是参数的列表,即使只有一个,也需要加上中括号。

人工智能学习Pytorch梯度下降优化示例详解

人工智能学习Pytorch梯度下降优化示例详解

我们可以直接通过mse_loss的方法,来直接创建损失函数。

在torch.autograd.grad中输入损失函数mse,以及希望求导的对象[w],可以直接求导。

人工智能学习Pytorch梯度下降优化示例详解

注意:我们需要在创建w的时候,需要添加requires_grad=True,我们才能对它求导。

也可以通过w.requires_grad_()的方法,为其添加可以求导的属性。

人工智能学习Pytorch梯度下降优化示例详解

人工智能学习Pytorch梯度下降优化示例详解

2.loss.backward()

该方法是直接在损失函数上面调用的

人工智能学习Pytorch梯度下降优化示例详解

这个方法不会返回梯度信息,而是将梯度信息保存到了参数中,直接用w.grad就可以查看。

3.softmax及其求导

该函数将差距较大的输入,转换成处于0-1之间的概率,并且所有概率和为1。

人工智能学习Pytorch梯度下降优化示例详解

对softmax函数的求导:

设输入是a,通过了softmax输出的是p

人工智能学习Pytorch梯度下降优化示例详解

注意:当i=j时,偏导是正的,i != j时,偏导是负的。

通过PyTorch实现方式如下:

人工智能学习Pytorch梯度下降优化示例详解

三、链式法则

1.单层感知机梯度

单层感知机其实就是只有一个节点,数据*权重,输入这个节点,经过sigmoid函数转换,得到输出值。根据链式法则可以求得梯度。

人工智能学习Pytorch梯度下降优化示例详解

通过PyTorch可以轻松实现函数转换以及求导。

人工智能学习Pytorch梯度下降优化示例详解

2. 多输出感知机梯度

输出值变多了,因此节点变多了。但求导方式其实是一样的。

人工智能学习Pytorch梯度下降优化示例详解

通过PyTorch实现求导的方式如下:

人工智能学习Pytorch梯度下降优化示例详解

3. 中间有隐藏层的求导

中间加了隐藏层,只是调节了输出节点的输入内容。原本是数据直接输给输出节点,现在是中间层的输出作为输入,给了输出节点。使用PyTorch实现方式如下:

人工智能学习Pytorch梯度下降优化示例详解

4.多层感知机的反向传播

依旧是通过链式法则,每一个结点的输出sigmoid(x)都是下一个结点的输入,因此我们通过前向传播得到每一个结点的sigmoid函数,以及最终的输出结果,算出损失函数后,即可通过后向传播依次推算出每一个结点每一个参数的梯度。

下面的DELTA(k)只是将一部分内容统一写作一个字母来表示,具体推导不再详述。

人工智能学习Pytorch梯度下降优化示例详解

四、优化举例

通过以下函数进行优化。

人工智能学习Pytorch梯度下降优化示例详解

优化流程:初始化参数→前向传播算出预测值→得到损失函数→反向传播得到梯度→对参数更新→再次前向传播→......

在此案例中,优化流程有一些不同:

优化之前先选择优化器,并直接把参数,以及梯度输入进去。

①pred = f(x)根据函数给出预测值,用以后面计算梯度。

②optimizer.zero_grad()梯度归零。因为反向传播之后,梯度会自动带到参数上去(上面有展示,可以调用查看)。

③pred.backward()用预测值计算梯度。

④pred.step()更新参数。

以上步骤循环即可。

人工智能学习Pytorch梯度下降优化示例详解

来源:https://blog.csdn.net/Swayzzu/article/details/121098104

标签:pytorch,人工智能,梯度下降,优化
0
投稿

猜你喜欢

  • php中让上传的文件大小在上传前就受限制的两种解决方法

    2023-10-25 17:53:12
  • python获取指定时间段内特定规律的日期列表

    2021-02-09 02:16:25
  • 解决Python安装时报缺少DLL问题【两种解决方法】

    2023-12-27 01:49:12
  • python实现简单石头剪刀布游戏

    2023-03-08 03:23:44
  • 快速掌握和使用Flyway的详细教程

    2023-03-05 15:24:24
  • Python通过tkinter实现百度搜索的示例代码

    2022-06-28 01:28:46
  • pytest官方文档解读fixtures的调用方式

    2022-01-18 18:40:49
  • 详解如何使用vue-cli脚手架搭建Vue.js项目

    2023-07-02 17:05:19
  • 专家教你安装 MySQL的与MySQL GUI Tools

    2012-01-29 17:59:05
  • python编程控制Android手机操作技巧示例

    2021-12-01 07:59:05
  • vue-element换肤所有主题色和基础色均可实现自主配置

    2024-04-28 09:29:00
  • Golang测试框架goconvey进行单元测试流程介绍

    2024-02-09 04:21:27
  • Python文本文件的合并操作方法代码实例

    2022-12-07 21:52:54
  • 如何基于线程池提升request模块效率

    2023-06-12 11:13:44
  • 如何把Mysql卸载干净(亲测有效)

    2024-01-16 09:06:06
  • javascript面向对象三大特征之封装实例详解

    2023-08-23 21:39:04
  • python django中8000端口被占用的解决

    2021-07-14 02:43:19
  • go GCM gin中间件的加密解密文件流处理

    2024-04-26 17:32:36
  • php zlib压缩和解压缩swf文件的代码

    2024-03-25 12:48:47
  • PyQt5实现数据的增删改查功能详解

    2021-03-30 06:50:07
  • asp之家 网络编程 m.aspxhome.com