Python使用numpy实现BP神经网络

作者:哇哇小仔 时间:2021-11-26 22:16:32 

本文完全利用numpy实现一个简单的BP神经网络,由于是做regression而不是classification,因此在这里输出层选取的激励函数就是f(x)=x。BP神经网络的具体原理此处不再介绍。


import numpy as np

class NeuralNetwork(object):
 def __init__(self, input_nodes, hidden_nodes, output_nodes, learning_rate):
   # Set number of nodes in input, hidden and output layers.设定输入层、隐藏层和输出层的node数目
   self.input_nodes = input_nodes
   self.hidden_nodes = hidden_nodes
   self.output_nodes = output_nodes

# Initialize weights,初始化权重和学习速率
   self.weights_input_to_hidden = np.random.normal(0.0, self.hidden_nodes**-0.5,  
                   ( self.hidden_nodes, self.input_nodes))

self.weights_hidden_to_output = np.random.normal(0.0, self.output_nodes**-0.5,  
                   (self.output_nodes, self.hidden_nodes))
   self.lr = learning_rate

# 隐藏层的激励函数为sigmoid函数,Activation function is the sigmoid function
   self.activation_function = (lambda x: 1/(1 + np.exp(-x)))

def train(self, inputs_list, targets_list):
   # Convert inputs list to 2d array
   inputs = np.array(inputs_list, ndmin=2).T  # 输入向量的shape为 [feature_diemension, 1]
   targets = np.array(targets_list, ndmin=2).T  

# 向前传播,Forward pass
   # TODO: Hidden layer
   hidden_inputs = np.dot(self.weights_input_to_hidden, inputs) # signals into hidden layer
   hidden_outputs = self.activation_function(hidden_inputs) # signals from hidden layer

# 输出层,输出层的激励函数就是 y = x
   final_inputs = np.dot(self.weights_hidden_to_output, hidden_outputs) # signals into final output layer
   final_outputs = final_inputs # signals from final output layer

### 反向传播 Backward pass,使用梯度下降对权重进行更新 ###

# 输出误差
   # Output layer error is the difference between desired target and actual output.
   output_errors = (targets_list-final_outputs)

# 反向传播误差 Backpropagated error
   # errors propagated to the hidden layer
   hidden_errors = np.dot(output_errors, self.weights_hidden_to_output)*(hidden_outputs*(1-hidden_outputs)).T

# 更新权重 Update the weights
   # 更新隐藏层与输出层之间的权重 update hidden-to-output weights with gradient descent step
   self.weights_hidden_to_output += output_errors * hidden_outputs.T * self.lr
   # 更新输入层与隐藏层之间的权重 update input-to-hidden weights with gradient descent step
   self.weights_input_to_hidden += (inputs * hidden_errors * self.lr).T

# 进行预测  
 def run(self, inputs_list):
   # Run a forward pass through the network
   inputs = np.array(inputs_list, ndmin=2).T

#### 实现向前传播 Implement the forward pass here ####
   # 隐藏层 Hidden layer
   hidden_inputs = np.dot(self.weights_input_to_hidden, inputs) # signals into hidden layer
   hidden_outputs = self.activation_function(hidden_inputs) # signals from hidden layer

# 输出层 Output layer
   final_inputs = np.dot(self.weights_hidden_to_output, hidden_outputs) # signals into final output layer
   final_outputs = final_inputs # signals from final output layer  

return final_outputs

来源:http://blog.csdn.net/zhangyang10d/article/details/54804053

标签:python,神经网络
0
投稿

猜你喜欢

  • padas 生成excel 增加sheet表的实例

    2023-03-22 04:52:04
  • PHP异常Parse error: syntax error, unexpected T_VAR错误解决方法

    2023-11-16 13:00:48
  • Pygame鼠标进行图片的移动与缩放案例详解

    2023-08-12 15:18:58
  • Python 字符串与数字输出方法

    2021-09-01 09:01:59
  • Jupyter notebook 启动闪退问题的解决

    2023-11-17 21:08:58
  • Python代码模拟CPU工作原理

    2023-08-04 15:23:49
  • django query模块

    2021-12-01 09:16:22
  • 解决SQL Server的“此数据库没有有效所有者”问题

    2011-12-14 18:29:35
  • Python求两个文本文件以行为单位的交集、并集与差集的方法

    2021-12-25 09:12:18
  • 详解python做UI界面的方法

    2023-05-24 08:07:41
  • python 处理微信对账单数据的实例代码

    2023-12-19 21:45:23
  • PyTorch中的squeeze()和unsqueeze()解析与应用案例

    2022-09-22 23:04:49
  • PHP实现上传文件并存进数据库的方法

    2023-07-03 21:35:14
  • python使用Apriori算法进行关联性解析

    2022-08-15 13:02:10
  • Microsoft Access项目不能压缩的原因

    2008-11-28 14:48:00
  • 归纳万恶IE6的HACK方法

    2010-02-04 17:17:00
  • Python 实现递归法解决迷宫问题的示例代码

    2021-01-31 08:14:23
  • python聊天室(虽然很简洁,但是可以用)

    2021-05-21 01:10:46
  • PHP 面向对象程序设计(oop)学习笔记(一) - 抽象类、对象接口、instanceof 和契约式编程

    2023-11-19 20:31:59
  • python使用pyqt写带界面工具的示例代码

    2023-09-29 05:15:22
  • asp之家 网络编程 m.aspxhome.com