在Kaggle内核中,当检查torch.cuda.is_available()时选择了GPU选项时,它说不可用

DACUS

我为完成的Kaggle竞赛创建了一个内核,在其中使用pytorch。当检查cuda是否可用时,它返回False。

我从设置中检查了GPU选项,它说它在底部的资源信息栏中。我尝试重新启动会话,没有进行任何更改。可能是什么问题呢?(可能只安装了pytorch的cpu吗?)

DACUS

问题在于从设置中选择的docker配置。选择“最新可用”解决了该问题。

本文收集自互联网,转载请注明来源。

如有侵权,请联系 [email protected] 删除。

编辑于
0

我来说两句

0 条评论
登录 后参与评论

相关文章

如何使pytorch中的cuda不可用

Pytorch说CUDA不可用

我们可以检查CUDA内核中的GPU内存使用情况吗?

Cuda中的选择排序

torch.cuda.is_available()在colab中返回false

在 cuda 10.0 中的多个 GPU 上运行每个内核函数

在CUDA内核中调用内核

在docker容器中使用GPU-CUDA版本:N / A和torch.cuda.is_available返回False

调用函数时CUDA / GPU中的异常错误

将单个浮点值更新到GPU以在CUDA内核中访问它的最快方法是什么?

我在Windows 10中安装了GPU和CUDA,但Pytorch的torch.cuda.is_avaiable()返回false;我该如何纠正?

在编译时在cuda内核中使用__ldg时出错

为什么即使在使用cuda安装pytorch之后,`torch.cuda.is_available()`仍返回False?

全新安装驱动程序和 cuda 后,torch.cuda.is_available() 为 False

MATLAB CUDA内核对象-使用聚集时出错?

启动许多内核(> 1000)时,CUDA流被阻止

更改cuda内核时,为什么cudaGraphicsGLRegisterBuffer出现段错误?

在__device__函数中创建过多的double时未启动Cuda内核

使用cudaMallocManaged时,为什么NVIDIA Pascal GPU在运行CUDA内核时运行缓慢

PyTorch无法看到GPU(torch.cuda.is_availble()返回False)

torch.cuda.is_available() 返回 False 为什么?

为什么启动 Numba cuda 内核最多可使用 640 个线程,但在有大量可用的 GPU 内存时却以 641 个失败?

如何将 torch.device('cuda' if torch.cuda.is_available() else 'cpu') 编写为完整的 if else 语句?

取消对CUDA内核的命令

Cuda内核配置

CUDA内核编译失败

了解CUDA内核执行

cuda内核的配置参数

预期的; 在CUDA内核上