python实现机器学习之元线性回归
作者:婉如 时间:2022-05-30 06:02:54
一、理论知识准备
1.确定假设函数
如:y=2x+7
其中,(x,y)是一组数据,设共有m个
2.误差cost
用平方误差代价函数
3.减小误差(用梯度下降)
二、程序实现步骤
1.初始化数据
x、y:样本
learning rate:学习率
循环次数loopNum:梯度下降次数
2.梯度下降
循环(循环loopNum次):
(1)算偏导(需要一个for循环遍历所有数据)
(2)利用梯度下降数学式子
三、程序代码
import numpy as np
def linearRegression(data_x,data_y,learningRate,loopNum):
w,b=0,0
#梯度下降
for i in range(loopNum):
w_derivative, b_derivative, cost = 0, 0, 0
for j in range(len(data_x)):
wxPlusb=w*data_x[j]+b
w_derivative+=(wxPlusb-data_y[j])*data_x[j]
b_derivative+=wxPlusb-data_y[j]
cost+=(wxPlusb-data_y[j])*(wxPlusb-data_y[j])
w_derivative=w_derivative/len(data_x)
b_derivative=b_derivative/len(data_x)
w = w - learningRate*w_derivative
b = b - learningRate*b_derivative
cost = cost/(2*len(data_x))
if i%100==0:
print(cost)
print(w)
print(b)
if __name__== "__main__": #_x:protected __x:private
x=np.random.normal(0,10,100)
noise=np.random.normal(0,0.05,100)
y=2*x+7+noise
linearRegression(x,y,0.01,5000)
四、输出
1.输出cost
可以看到,一开始的误差是很大的,然后减小了
最后几次输出的cost没有变化,可以将训练的次数减小一点
2.训练完的w和b
和目标w=2,b=7很接近
来源:https://blog.csdn.net/zhangergou0628/article/details/80436491
标签:python,元线性回归
0
投稿
猜你喜欢
Python实现平行坐标图的两种方法小结
2023-07-30 20:45:34
Python telnet登陆功能实现代码
2022-08-13 01:52:56
详解Python中的List
2023-11-20 05:37:39
简析 IOS 程序图标的设计
2011-04-28 09:39:00
form 元素内的字段 name 不要跟 form 属性名称一致
2008-10-22 13:25:00
matplotlib绘制两点间连线的几种方法实现
2021-07-27 09:02:24
python写入并获取剪切板内容的实例
2023-08-03 10:44:04
Python 剪绳子的多种思路实现(动态规划和贪心)
2021-07-03 18:43:41
计划备份mysql数据库
2009-03-09 14:34:00
python3.x上post发送json数据
2021-07-03 02:07:23
关于Pyinstaller闪退的补救措施
2021-04-22 06:27:08
python matplotlib如何给图中的点加标签
2023-02-23 12:16:47
PyQt4编程之让状态栏显示信息的方法
2021-07-22 04:11:19
JS简单实现DIV相对于浏览器固定位置不变的方法
2023-08-05 22:30:12
Python可视化Matplotlib折线图plot用法详解
2021-01-04 03:06:15
pycharm 实现光标快速移动到括号外或行尾的操作
2023-07-17 19:52:31
总结showModalDialog和showModelessDialog用法
2007-11-24 08:26:00
机器学习python实战之决策树
2021-07-21 12:46:13
删除数组中重复项(uniq)
2009-12-28 12:23:00
教你使用一行Python代码玩遍童年的小游戏
2021-05-15 10:14:00