PyTorch CUDA环境配置及安装的步骤(图文教程)

Pytorch版本介绍

  • torch:1.6
  • CUDA:10.2
  • cuDNN:8.1.0

✨安装 NVIDIA 显卡驱动程序

一般 电脑出厂/装完系统 会自动安装显卡驱动

如果有 可直接进行下一步

下载链接

http://www.nvidia.cn/Download/index.aspx?lang=cn

选择和自己显卡相匹配的显卡驱动

下载安装

✨确认项目所需torch版本

# pip install -r requirements.txt

# base ----------------------------------------
Cython
matplotlib>=3.2.2
numpy>=1.18.5
opencv-python>=4.1.2
pillow
PyYAML>=5.3
scipy>=1.4.1
tensorboard>=2.2
torch>=1.6.0
torchvision>=0.7.0
tqdm>=4.41.0

# coco ----------------------------------------
# pycocotools>=2.0

# export --------------------------------------
# packaging  # for coremltools
# coremltools==4.0
# onnx>=1.7.0
# scikit-learn==0.19.2  # for coreml quantization

# extras --------------------------------------
# thop  # FLOPS computation
# seaborn  # plotting

例如此项目需求torch>=1.6

在PyTorch官网查看与之匹配的CUDA版本

https://pytorch.org/get-started/previous-versions/

这里可以从conda命令看出 torch1.6 可以安装10.2版本的CUDA

torch与CUDA版本一定要匹配!

✨安装 CUDA

NVIDIA控制面板 -> 帮助 -> 系统信息 -> 组件

查看NVCUDA.DLL 后的参数

本机是10.2

//如果更新了显卡驱动这里参数可能会变高

下载的CUDA版本可以低于这里显示的参数 但是一定要与torch版本匹配

下载

下载链接:https://developer.nvidia.com/cuda-downloads

//上面的链接默认下载的是最新版本的CUDA

要下载之前版本的CUDA在上述下载页面下滑 然后点击 ”CUDA早期版本档案”

或者直接点击CUDA早期版本档案 跳转

选择CUDA Toolkit 10.2

选择对应操作系统版本然后点击Download

!Installer Type一定要选exe(local)

安装

安装完成

在Terminal输入以下命令

nvcc -V

显示CUDA版本则相关环境变量已经自动配置

✨安装cuDNN

下载

下载链接

https://developer.nvidia.com/rdp/cudnn-archive

选择和操作系统以及CUDA相匹配的cuDNN版本

例如我刚才安装了CUDA10.2 这里选择Download cuDNN v8.1.0 (January 26th, 2021), for CUDA 10.2

安装

解压下载的zip

把解压得到的文件夹内的bin、include、lib目录下的dll文件与h文件分别复制到相应的CUDA的安装目录下

默认安装目录分别为

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.2\bin
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.2\include
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.2\lib

✨安装PyTorch

在线安装

在PyTorch官方链接上查看相应安装命令

https://pytorch.org/get-started/previous-versions/

例如我要安装CUDA10.2版本的torch1.6 对应的conda命令是

# CUDA 10.2
conda install pytorch==1.6.0 torchvision==0.7.0 cudatoolkit=10.2 -c pytorch

!在线安装速度很慢 可以选择下面离线安装的方法

离线安装

whl下载链接

https://download.pytorch.org/whl/torch_stable.html

选择对应CUDA、Python、操作系统、torch版本的whl

例如我要安装CUDA10.2、Python3.8、torch1.6 版本的whl

应下载 cu102/torch-1.6.0-cp38-cp38-win_amd64.whl

例如我要安装CUDA10.2、Python3.8、torchvision0.7 版本的whl

应下载 cu102/torchvision-0.7.0-cp38-cp38-win_amd64.whl

然后在conda环境中安装

pip install torch-1.6.0-cp38-cp38-win_amd64.whl

pip install torchvision-0.7.0-cp38-cp38-win_amd64.whl

安装完成

✨确认环境是否配置成功

import torch

print(torch.__version__)
print(torch.cuda.is_available())

如上所示环境配置成功

✨参考及引用

https://blog.csdn.net/qq_37296487/article/details/83028394

https://blog.csdn.net/maoersong/article/details/104484826

https://blog.csdn.net/qq_36653505/article/details/83932941

到此这篇关于PyTorch CUDA环境配置及安装的步骤(图文教程)的文章就介绍到这了,更多相关PyTorch CUDA配置及安装内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • PyTorch两种安装方法

    本文安装的是pytorch1.4版本(cpu版本) 首先需要安装Anaconda 是否需要安装基于cuda的PyTorch版本呢? 对于普通笔记本来说即使有显卡性能也不高,跑不动层数较深的深度学习网络,所以就不用装cuda啦.实际应用时深度学习肯定离不开基于高性能GPU的cuda,作为一般的笔记本,基本都跑不动数据量较大的模型,所以安装CPU版的PyTorch即可.以后如果继续进行深度学习的研究或开发,都会基于高性能服务器,此时安装PyTorch版本肯定是选择有cuda的版本了. 然后进入PyT

  • pytorch实现线性回归以及多元回归

    本文实例为大家分享了pytorch实现线性回归以及多元回归的具体代码,供大家参考,具体内容如下 最近在学习pytorch,现在把学习的代码放在这里,下面是github链接 直接附上github代码 # 实现一个线性回归 # 所有的层结构和损失函数都来自于 torch.nn # torch.optim 是一个实现各种优化算法的包,调用的时候必须是需要优化的参数传入,这些参数都必须是Variable x_train = np.array([[3.3],[4.4],[5.5],[6.71],[6.93

  • pytorch visdom安装开启及使用方法

    安装 conda activate ps pip install visdom 激活ps的环境,在指定的ps环境中安装visdom 开启 python -m visdom.server 浏览器输入红框内的网址 使用 1. 简单示例:一条线 from visdom import Visdom # 创建一个实例 viz=Visdom() # 创建一个直线,再把最新数据添加到直线上 # y x二维两个轴,win 创建一个小窗口,不指定就默认为大窗口,opts其他信息比如名称 viz.line([1,2

  • 浅谈pytorch中的nn.Sequential(*net[3: 5])是啥意思

    看到代码里面有这个 1 class ResNeXt101(nn.Module): 2 def __init__(self): 3 super(ResNeXt101, self).__init__() 4 net = resnext101() # print(os.getcwd(), net) 5 net = list(net.children()) # net.children()得到resneXt 的表层网络 # for i, value in enumerate(net): # print(

  • PyTorch的Debug指南

    一.ipdb 介绍 很多初学 python 的同学会使用 print 或 log 调试程序,但是这只在小规模的程序下调试很方便,更好的调试应该是在一边运行的时候一边检查里面的变量和方法. 感兴趣的可以去了解 pycharm 的 debug 模式,功能也很强大,能够满足一般的需求,这里不多做赘述,我们这里介绍一个更适用于 pytorch 的一个灵活的 pdb 交互式调试工具. Pdb 是一个交互式的调试工具,集成与 Python 标准库中,它能让你根据需求跳转到任意的 Python 代码断点.查看

  • pytorch显存一直变大的解决方案

    在代码中添加以下两行可以解决: torch.backends.cudnn.enabled = True torch.backends.cudnn.benchmark = True 补充:pytorch训练过程显存一直增加的问题 之前遇到了爆显存的问题,卡了很久,试了很多方法,总算解决了. 总结下自己试过的几种方法: **1. 使用torch.cuda.empty_cache() 在每一个训练epoch后都添加这一行代码,可以让训练从较低显存的地方开始,但并不适用爆显存的问题,随着epoch的增加

  • pytorch中的nn.ZeroPad2d()零填充函数实例详解

    在卷积神经网络中,有使用设置padding的参数,配合卷积步长,可以使得卷积后的特征图尺寸大小不发生改变,那么在手动实现图片或特征图的边界零填充时,常用的函数是nn.ZeroPad2d(),可以指定tensor的四个方向上的填充,比如左边添加1dim.右边添加2dim.上边添加3dim.下边添加4dim,即指定paddin参数为(1,2,3,4),本文中代码设置的是(3,4,5,6)如下: import torch.nn as nn import cv2 import torchvision f

  • 在Windows下安装配置CPU版的PyTorch的方法

    由于我已经安装了anaconda,所以不在赘述,下载可以上清华镜像版下载 https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/ 我下的版本为Anaconda3-5.2.0-Windows-x86_64 对应python版本为3.6.5 版本根据个人需求下载即可.下面开始具体的PyTorch的cpu版本安装. 1.添加镜像源 还是使用清华源下载,打开cmd或者 anaconda prompt,输入以下代码: conda config --ad

  • win10系统配置GPU版本Pytorch的详细教程

    一.安装cuda 1.在英伟达官网下载最新版的cuda驱动 https://developer.nvidia.com/zh-cn/cuda-downloads 都选上就行了,然后一路默认安装 输入nvcc -V查看是否安装成功 二.安装pycuda 1.在控制台中输入pip install pycuda 安装pycuda 2.在环境变量中添加cl.exe 3.测试pycuda是否正常运行 import pycuda.driver as drv import pycuda.tools,pycuda

  • Python深度学习之使用Pytorch搭建ShuffleNetv2

    一.model.py 1.1 Channel Shuffle def channel_shuffle(x: Tensor, groups: int) -> Tensor: batch_size, num_channels, height, width = x.size() channels_per_group = num_channels // groups # reshape # [batch_size, num_channels, height, width] -> [batch_size

  • 使用pytorch实现线性回归

    本文实例为大家分享了pytorch实现线性回归的具体代码,供大家参考,具体内容如下 线性回归都是包括以下几个步骤:定义模型.选择损失函数.选择优化函数. 训练数据.测试 import torch import matplotlib.pyplot as plt # 构建数据集 x_data= torch.Tensor([[1.0],[2.0],[3.0],[4.0],[5.0],[6.0]]) y_data= torch.Tensor([[2.0],[4.0],[6.0],[8.0],[10.0]

  • Pytorch 使用tensor特定条件判断索引

    torch.where() 用于将两个broadcastable的tensor组合成新的tensor,类似于c++中的三元操作符"?:" 区别于python numpy中的where()直接可以找到特定条件元素的index 想要实现numpy中where()的功能,可以借助nonzero() 对应numpy中的where()操作效果: 补充:Pytorch torch.Tensor.detach()方法的用法及修改指定模块权重的方法 detach detach的中文意思是分离,官方解释

随机推荐