运行pytorch 显存充足却显示OOM(out of memory)

阅读: 评论:0

运行pytorch 显存充足却显示OOM(out of memory)

运行pytorch 显存充足却显示OOM(out of memory)

有时候训练网络,bach_size调大一点就报OOM,但是查看GPU使用情况,发现并不高,无奈只能调小。 最近用onnx,又报CUDA  out of memory。仔细研究了一下,有一些发现,记录一下。


  1. 如果只有一块GPU,主要是因为pytorch会在第0块gpu上初始化,并且会占用一定空间的显存。这种情况下,经常会出现指定的gpu明明是空闲的,但是因为第0块gpu被占满而无法运行,一直报out of memory错误。解决方案如下:指定环境变量,屏蔽第0块gpuCUDA_VISIBLE_DEVICES = 1 main.py (这句话表示只有第1块)
  2. 或者尝试修改pytorch版本,也能改善情况。

本文发布于:2024-01-29 05:54:13,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170647885813173.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:显存   充足   pytorch   OOM   memory
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23