登录社区云,与社区用户共同成长
邀请您加入社区
batch_size设置过大会导致cuda显存溢出,并不是代码问题,解决方法调小batch_size。
batch_size设置过大会导致cuda显存溢出,并不是代码问题,解决方法调小batch_size
欢迎来到由智源人工智能研究院发起的Triton中文社区,这里是一个汇聚了AI开发者、数据科学家、机器学习爱好者以及业界专家的活力平台。我们致力于成为业内领先的Triton技术交流与应用分享的殿堂,为推动人工智能技术的普及与深化应用贡献力量。
更多推荐
torch.device(‘cuda:0‘ if cuda else ‘cpu‘)
# 这个地方的cuda:0 实际上并不是0号GPU,他取决于CUDA_VISIBLE_DEVICES# 然后逻辑GPU和物理GPU有一个对应关系# 如果CUDA_VISIBLE_DEVICES为2,1,3# 那么CUDA:0就是2号GPU, CUDA:1 就是1号GPU CUDA:3 就是3号GPUreturn torch.device('cuda:0' if cuda else 'cpu')..
部署stable diffusion 错误torch.cuda.OutOfMemoryError: CUDA out of memory.
cuda与python版本对应
CUDA 可以与多个 Python 版本兼容,具体取决于你使用的 CUDA 版本和操作系统。例如,CUDA 10.1 可以与 Python 3.5 - 3.8 版本兼容,而 CUDA 11.0 则可以与 Python 3.5 - 3.9 版本兼容。...
扫一扫分享内容
所有评论(0)