Pytorch 如何加速Dataloader提升数据读取速度

作者:MKFMIKU 时间:2023-11-12 00:00:32 

在利用DL解决图像问题时,影响训练效率最大的有时候是GPU,有时候也可能是CPU和你的磁盘。

很多设计不当的任务,在训练神经网络的时候,大部分时间都是在从磁盘中读取数据,而不是做 Backpropagation 。

这种症状的体现是使用 Nividia-smi 查看 GPU 使用率时,Memory-Usage 占用率很高,但是 GPU-Util 时常为 0% ,如下图所示:

Pytorch 如何加速Dataloader提升数据读取速度

如何解决这种问题呢?

在 Nvidia 提出的分布式框架 Apex 里面,我们在源码里面找到了一个简单的解决方案:

https://github.com/NVIDIA/apex/blob/f5cd5ae937f168c763985f627bbf850648ea5f3f/examples/imagenet/main_amp.py#L256


class data_prefetcher():
   def __init__(self, loader):
       self.loader = iter(loader)
       self.stream = torch.cuda.Stream()
       self.mean = torch.tensor([0.485 * 255, 0.456 * 255, 0.406 * 255]).cuda().view(1,3,1,1)
       self.std = torch.tensor([0.229 * 255, 0.224 * 255, 0.225 * 255]).cuda().view(1,3,1,1)
       # With Amp, it isn't necessary to manually convert data to half.
       # if args.fp16:
       #     self.mean = self.mean.half()
       #     self.std = self.std.half()
       self.preload()

def preload(self):
       try:
           self.next_input, self.next_target = next(self.loader)
       except StopIteration:
           self.next_input = None
           self.next_target = None
           return
       with torch.cuda.stream(self.stream):
           self.next_input = self.next_input.cuda(non_blocking=True)
           self.next_target = self.next_target.cuda(non_blocking=True)
           # With Amp, it isn't necessary to manually convert data to half.
           # if args.fp16:
           #     self.next_input = self.next_input.half()
           # else:
           self.next_input = self.next_input.float()
           self.next_input = self.next_input.sub_(self.mean).div_(self.std)

我们能看到 Nvidia 是在读取每次数据返回给网络的时候,预读取下一次迭代需要的数据,

那么对我们自己的训练代码只需要做下面的改造:


training_data_loader = DataLoader(
   dataset=train_dataset,
   num_workers=opts.threads,
   batch_size=opts.batchSize,
   pin_memory=True,
   shuffle=True,
)
for iteration, batch in enumerate(training_data_loader, 1):
   # 训练代码

#-------------升级后---------

data, label = prefetcher.next()
iteration = 0
while data is not None:
   iteration += 1
   # 训练代码
   data, label = prefetcher.next()

这样子我们的 Dataloader 就像打了鸡血一样提高了效率很多,如下图:

Pytorch 如何加速Dataloader提升数据读取速度

当然,最好的解决方案还是从硬件上,把读取速度慢的机械硬盘换成 NVME 固态吧~

补充:Pytorch设置多线程进行dataloader时影响GPU运行

使用PyTorch设置多线程(threads)进行数据读取时,其实是假的多线程,他是开了N个子进程(PID是连续的)进行模拟多线程工作。

以载入cocodataset为例

DataLoader


dataloader = torch.utils.data.DataLoader(COCODataset(config["train_path"],
                                                    (config["img_w"], config["img_h"]),
                                                    is_training=True),
                                        batch_size=config["batch_size"],
                                        shuffle=True, num_workers=32, pin_memory=True)

numworkers就是指定多少线程的参数,原为32。

检查GPU是否运行该程序

查看运行在gpu上的所有程序:


fuser -v /dev/nvidia*

如果没有返回,则该程序并没有在GPU上运行

指定GPU运行

将num_workers改成0即可

来源:https://zhuanlan.zhihu.com/p/66145913

标签:Pytorch,Dataloader,数据,读取速度
0
投稿

猜你喜欢

  • python套接字socket通信

    2023-01-26 17:51:03
  • python调用机器喇叭发出蜂鸣声(Beep)的方法

    2022-01-09 15:17:20
  • 解决mysql5中文乱码问题的方法

    2024-01-15 07:47:52
  • Python利用多线程枚举实现获取wifi信息

    2021-12-05 03:58:12
  • pytest自动化测试fixture的作用域实例化顺序及可用性

    2022-06-22 14:46:30
  • sql中时间以5分钟半个小时任意间隔分组的实现方法

    2024-01-25 04:23:39
  • MySQL过滤重复数据的两种方法示例

    2024-01-16 12:54:27
  • python flask sqlalchemy连接数据库流程介绍

    2024-01-23 18:34:36
  • php中正则替换函数ereg_replace用法实例

    2023-06-13 03:03:51
  • UniApp开发H5接入微信登录的全过程

    2024-04-10 16:21:13
  • python基于queue和threading实现多线程下载实例

    2023-02-04 09:58:22
  • 高效的mysql分页方法及原理

    2024-01-20 04:23:46
  • FSO如何一行行地读取文件?

    2010-06-10 18:40:00
  • php7性能提升的原因详解

    2024-05-03 15:34:19
  • Python中使用第三方库xlutils来追加写入Excel文件示例

    2022-05-23 10:04:11
  • 交互设计实用指南系列(6) –标签明晰、有效

    2010-01-21 12:39:00
  • CSS 针对 Safari(WebKit)的 CSS 注意事项 3

    2008-09-15 18:36:00
  • Python Flask微信小程序登录流程及登录api实现代码

    2022-03-21 14:33:47
  • 论Asp与XML的关系

    2008-03-05 12:01:00
  • Dreamweaver基础技巧全面接触

    2010-03-25 12:23:00
  • asp之家 网络编程 m.aspxhome.com