1. 问题描述
有一种可能真的是显存不够用,这种直接在代码中修改可以减小batch_size即可解决。
但是查看了GPU显存明明够用啊,那为什么还报错RuntimeError: CUDA out of memory.呢?这种,就算减小batch_size 也没用。
参考网友经验,原来这种情况的根本原因 是
代码指定的GPU与实际使用的GPU不一致。
你以为代码在1上跑,实际上是在已经有代码运行的其他gpu跑,因此显示显存不足。
我的解决办法是在代码里修改了这几句代码。
os.environ['CUDA_DEVICE_ORDER'] = 'PCI_BUS_ID'
os.environ['CUDA_VISIBLE_DEVICES'] = '1'
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
然后成功运行。
记录此次bug解决,以便以后需要时查阅。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/99885.html