python实现随机梯度下降法

作者:Cludy_Sky 时间:2023-11-02 16:55:37 

看这篇文章前强烈建议你看看上一篇python实现梯度下降法:

一、为什么要提出随机梯度下降算法

注意看梯度下降法权值的更新方式(推导过程在上一篇文章中有)

python实现随机梯度下降法

 也就是说每次更新权值python实现随机梯度下降法都需要遍历整个数据集(注意那个求和符号),当数据量小的时候,我们还能够接受这种算法,一旦数据量过大,那么使用该方法会使得收敛过程极度缓慢,并且当存在多个局部极小值时,无法保证搜索到全局最优解。为了解决这样的问题,引入了梯度下降法的进阶形式:随机梯度下降法。

二、核心思想

对于权值的更新不再通过遍历全部的数据集,而是选择其中的一个样本即可(对于程序员来说你的第一反应一定是:在这里需要一个随机函数来选择一个样本,不是吗?),一般来说其步长的选择比梯度下降法的步长要小一点,因为梯度下降法使用的是准确梯度,所以它可以朝着全局最优解(当问题为凸问题时)较大幅度的迭代下去,但是随机梯度法不行,因为它使用的是近似梯度,或者对于全局来说有时候它走的也许根本不是梯度下降的方向,故而它走的比较缓,同样这样带来的好处就是相比于梯度下降法,它不是那么容易陷入到局部最优解中去。

三、权值更新方式

python实现随机梯度下降法

(i表示样本标号下标,j表示样本维数下标)

四、代码实现(大体与梯度下降法相同,不同在于while循环中的内容)


import numpy as np
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import axes3d
from matplotlib import style

#构造数据
def get_data(sample_num=1000):
"""
拟合函数为
y = 5*x1 + 7*x2
:return:
"""
x1 = np.linspace(0, 9, sample_num)
x2 = np.linspace(4, 13, sample_num)
x = np.concatenate(([x1], [x2]), axis=0).T
y = np.dot(x, np.array([5, 7]).T)
return x, y
#梯度下降法
def SGD(samples, y, step_size=2, max_iter_count=1000):
"""
:param samples: 样本
:param y: 结果value
:param step_size: 每一接迭代的步长
:param max_iter_count: 最大的迭代次数
:param batch_size: 随机选取的相对于总样本的大小
:return:
"""
#确定样本数量以及变量的个数初始化theta值

m, var = samples.shape
theta = np.zeros(2)
y = y.flatten()
#进入循环内
loss = 1
iter_count = 0
iter_list=[]
loss_list=[]
theta1=[]
theta2=[]
#当损失精度大于0.01且迭代此时小于最大迭代次数时,进行
while loss > 0.01 and iter_count < max_iter_count:
loss = 0
#梯度计算
theta1.append(theta[0])
theta2.append(theta[1])
#样本维数下标
rand1 = np.random.randint(0,m,1)
h = np.dot(theta,samples[rand1].T)
#关键点,只需要一个样本点来更新权值
for i in range(len(theta)):
theta[i] =theta[i] - step_size*(1/m)*(h - y[rand1])*samples[rand1,i]
#计算总体的损失精度,等于各个样本损失精度之和
for i in range(m):
h = np.dot(theta.T, samples[i])
#每组样本点损失的精度
every_loss = (1/(var*m))*np.power((h - y[i]), 2)
loss = loss + every_loss

print("iter_count: ", iter_count, "the loss:", loss)

iter_list.append(iter_count)
loss_list.append(loss)

iter_count += 1
plt.plot(iter_list,loss_list)
plt.xlabel("iter")
plt.ylabel("loss")
plt.show()
return theta1,theta2,theta,loss_list

def painter3D(theta1,theta2,loss):
style.use('ggplot')
fig = plt.figure()
ax1 = fig.add_subplot(111, projection='3d')
x,y,z = theta1,theta2,loss
ax1.plot_wireframe(x,y,z, rstride=5, cstride=5)
ax1.set_xlabel("theta1")
ax1.set_ylabel("theta2")
ax1.set_zlabel("loss")
plt.show()

if __name__ == '__main__':
samples, y = get_data()
theta1,theta2,theta,loss_list = SGD(samples, y)
print(theta) # 会很接近[5, 7]

painter3D(theta1,theta2,loss_list)

来源:https://blog.csdn.net/m2284089331/article/details/76492521

标签:python,梯度下降
0
投稿

猜你喜欢

  • Yii2结合Workerman的websocket示例详解

    2023-11-17 04:48:40
  • Tkinter组件Checkbutton的具体使用

    2023-03-19 14:55:46
  • 用户体验杂谈

    2011-10-21 21:09:08
  • PHPMailer发送邮件功能实现流程

    2023-06-03 13:11:18
  • Laravel实现登录跳转功能

    2023-06-14 23:35:40
  • python进行参数传递的方法

    2023-05-21 06:15:32
  • 深度剖析Golang中的数组,字符串和切片

    2024-02-17 08:53:13
  • mysql出现10061错误解决办法

    2010-07-04 13:36:00
  • Python学习之线程池与GIL全局锁详解

    2021-10-09 21:55:18
  • Javascript 虚拟 DOM详解

    2024-04-18 10:31:30
  • asp之自动闭合HTML/ubb标签函数附简单注释

    2011-04-04 11:18:00
  • Python tkinter 树形列表控件(Treeview)的使用方法

    2023-10-06 23:14:47
  • Python ConfigParser模块的使用示例

    2023-12-02 03:35:15
  • Python的装饰器用法学习笔记

    2021-05-06 03:03:36
  • python距离测量的方法

    2022-12-05 18:27:45
  • 防采集,几种觉得有用的防采集方法

    2009-09-03 13:30:00
  • 基于python的七种经典排序算法(推荐)

    2023-06-16 18:21:43
  • 在Win 2003中配置ASP.net环境

    2007-10-14 12:02:00
  • Python中处理无效数据的详细教程

    2021-11-18 06:11:07
  • 几个简单的基本的sql语句

    2024-01-20 18:55:58
  • asp之家 网络编程 m.aspxhome.com