Tensorflow的梯度异步更新示例
作者:supe_king 时间:2022-10-04 15:08:23
背景:
先说一下应用吧,一般我们进行网络训练时,都有一个batchsize设置,也就是一个batch一个batch的更新梯度,能有这个batch的前提是这个batch中所有的图片的大小一致,这样才能组成一个placeholder。那么若一个网络对图片的输入没有要求,任意尺寸的都可以,但是我们又想一个batch一个batch的更新梯度怎么办呢?
操作如下:
先计算梯度:
# 模型部分
Optimizer = tf.train.GradientDescentOptimizer(1)
gradient = Optimizer.compute_gradients(loss) # 每次计算所有变量的梯度
grads_holder = [(tf.placeholder(tf.float32, shape=g.get_shape()), v) for (g, v) in gradient]# 将每次计算的梯度保存
optm = Optimizer.apply_gradients(grads_holder) # 进行梯度更新
# 初始化部分
sess = tf.Session()
init = tf.global_variables_initializer()
sess.run(init)
# 实际训练部分
grads = [] # 定义一个空的列表用于存储每次计算的梯度
for i in range(batchsize): # batchsize设置在这里
x_i = ... # 输入
y_real = ... # 标签
grad_i = sess.run(gradient, feed_dict={inputs: x_i, outputs: y_real}) #梯度计算
grads.append(grad_i) # 梯度存储
# 定义一个空的字典用于存储,batchsize中所有梯度的和
grads_sum = {}
# 将网络中每个需要更新梯度的变量都遍历一遍
for i in range(len(grads_holder)):
k = grads_holder[i][0] # 得到该变量名
# 将该变量名下的所有梯度求和,这里也可以求平均,求平均只需要除以batchsize
grads_sum[k] = sum([g[i][0] for g in grads])
# 完成梯度更新
sess.run(optm,feed_dict=grads_sum)
来源:https://blog.csdn.net/supe_king/article/details/78017429
标签:Tensorflow,梯度,异步,更新
0
投稿
猜你喜欢
Pinia简单使用以及数据持久化详解
2024-05-28 15:52:59
python多进程基础详解
2021-07-14 10:06:52
python 类对象的析构释放代码演示
2023-11-22 18:54:53
python偏函数partial用法
2023-09-24 22:25:06
python sklearn 画出决策树并保存为PDF的实现过程
2023-08-05 00:23:54
Vue实现通知或详情类弹窗
2024-05-29 22:45:06
pandas.dataframe按行索引表达式选取方法
2021-10-28 20:26:32
Python 正则表达式 re.match/re.search/re.sub的使用解析
2021-04-28 08:28:21
基于微服务框架go-micro开发gRPC应用程序
2023-06-22 21:19:27
Python中方法的缺省参数问题解读
2022-10-07 17:00:45
Python中的元类编程入门指引
2023-08-02 02:43:44
Sql Server查询性能优化之不可小觑的书签查找介绍
2012-05-22 18:24:53
Python实现蒙特卡洛模拟的示例代码
2023-03-09 14:27:23
鼠标实现图片的渐有渐无
2013-06-30 02:49:10
python中时间模块的基本使用教程
2021-05-15 21:24:43
利用Python上传日志并监控告警的方法详解
2022-08-23 15:31:01
Python实现二维有序数组查找的方法
2021-04-15 21:31:38
vue使用@scroll监听滚动事件时,@scroll无效问题的解决方法详解
2024-05-09 15:24:55
centos7.4系统中yum源安装mysql 5.6
2024-01-14 16:38:19
python批量从es取数据的方法(文档数超过10000)
2022-03-23 01:21:48