深度学习环境的搭建(Windows11)

偶然重装了系统,在此记录下环境的恢复

基本深度学习环境的搭建,包括Anaconda+CUDA+cuDNN+Pytorch+TensorRT的安装与配置。

ps:显卡为 RTX 4060 Laptop GPU

1.安装Python

前往Python官网https://www.python.org/getit/,下载最新版Python并安装即可。

2.安装Anaconda3

前往Anaconda官网https://www.anaconda.com/download,下载最新版Anaconda安装包

运行安装包,选择安装位置,我这里是C:\Users\username\anaconda3,大概需要5.7G空间,高级安装选项设置如下图:

2.1配置vscode终端自动激活对应的conda环境

方法一

  1. 首先打开设置菜单,找到系统->开发者选项->PowerShell, 开启选项 更改执行策略····, 以允许power shell加载运行本地脚本

  1. 以管理员身份打开Anaconda Powershell prompt,运行conda初始化脚本即可:
conda init powershell

这样,conda会在$PROFILE所在文件夹下生成一个ps1脚本,每次打开终端,就会自动执行,从而切换到conda环境,内容如下:

#region conda initialize
# !! Contents within this block are managed by 'conda init' !!
If (Test-Path "C:\Users\username\anaconda3\Scripts\conda.exe") {
(& "C:\Users\username\anaconda3\Scripts\conda.exe" "shell.powershell" "hook") | Out-String | ?{$_} | Invoke-Expression
}
#endregion
  1. 大功告成。这样你的power shell就可以直接使用conda acitvate等命令了。

方法二

如果你希望你的power shell还是安装anaconda之前的状态,并且出于安全考虑,不想要更改power shell的默认执行策略,毕竟上面的选项开了之后一般就得一直开着了,什么本地power shell脚本都可以直接运行了,这时候可以考虑以下的办法:

由于vscode默认的终端为power shell,我们需要参考Anaconda Powershell prompt脚本新建一个新的终端配置:

  1. 首先ctrl+shift+p,输入setting,找到首选项:打开设置(json)这一项即可打开settings.json

  2. 在settings.json中添加如下配置:

    "terminal.integrated.profiles.windows": {
"PowerShell": {
"source": "PowerShell",
"icon": "terminal-powershell"
},
"Command PowerShell Prompt": {
"path": [
"${env:windir}\\System32\\WindowsPowerShell\\v1.0\\powershell.exe"
],
"args": ["-ExecutionPolicy","ByPass","-NoExit","-Command", "C:\\Users\\username\\anaconda3\\shell\\condabin\\conda-hook.ps1"],
"icon": "terminal-powershell"
},
"Git Bash": {
"source": "Git Bash"
}
},
"terminal.integrated.defaultProfile.windows": "Command PowerShell Prompt"

配置内容参考自下图目标栏:

其原理就是靠着args参数中的-ExecutionPolicy参数,将执行策略设置为ByPass,临时更改执行策略以执行conda-hook脚本,从而激活虚拟环境。

3.安装Git工具

前往Git官网https://git-scm.com/download/win下载并安装即可。

4.安装CUDA Toolkit

安装CUDA前请确保已安装好驱动,nvidia驱动下载地址:https://www.nvidia.cn/Download/index.aspx?lang=cn

然后在命令行中输入nvidia-smi 查看显卡支持的最高CUDA版本,我这个是12.0

PS C:\Users\username> nvidia-smi
Thu Oct 19 11:40:58 2023
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 528.92 Driver Version: 528.92 CUDA Version: 12.0 |
|-------------------------------+----------------------+----------------------+
| GPU Name TCC/WDDM | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|===============================+======================+======================|
| 0 NVIDIA GeForce ... WDDM | 00000000:01:00.0 Off | N/A |
| N/A 39C P0 17W / 80W | 0MiB / 8188MiB | 0% Default |
| | | N/A |
+-------------------------------+----------------------+----------------------+ +-----------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=============================================================================|
| No running processes found |
+-----------------------------------------------------------------------------+
PS C:\Users\username>

接着下载对应版本号12.0的CUDA驱动,下载地址:https://developer.nvidia.com/cuda-toolkit-archive

下载完成后点击安装,安装时选择自定义安装,仅勾选CUDA即可,如果之前没有安装Visual Studio,也需要取消勾选Visual Studio Integration,否则会安装不成功。安装位置自己选,一般C盘就行。

安装完成后,在终端中输入nvcc -V出现如下内容代表安装成功。

PS C:\Users\username> nvcc -V
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2022 NVIDIA Corporation
Built on Mon_Oct_24_19:40:05_Pacific_Daylight_Time_2022
Cuda compilation tools, release 12.0, V12.0.76
Build cuda_12.0.r12.0/compiler.31968024_0
PS C:\Users\username>

5.安装cuDNN

首先前往官网寻找与自己CUDA版本相匹配的cuDNN:https://developer.nvidia.com/rdp/cudnn-download

比如我的CUDA版本是12.0,对应的cuDNN版本为8.8.1,那就应该下载Download cuDNN v8.8.1 (March 8th, 2023), for CUDA 12.x选项卡中的Local Installer for Windows (Zip)

其余不同版本cuDNN对应的CUDA版本可在官网自行查看:https://docs.nvidia.com/deeplearning/cudnn/archives/index.html

下载完成后打开压缩包,将压缩包内的文件夹复制到CUDA目录下即可。如下图所示:

安装后可在***\NVIDIA GPU Computing Toolkit\CUDA\v12.0\extras\demo_suite文件夹下用powershell运行bandwidthTest.exe程序,出现如下结果则代表cuDNN安装成功。

PS C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.0\extras\demo_suite> .\bandwidthTest.exe
[CUDA Bandwidth Test] - Starting...
Running on... Device 0: NVIDIA GeForce RTX 4060 Laptop GPU
Quick Mode Host to Device Bandwidth, 1 Device(s)
PINNED Memory Transfers
Transfer Size (Bytes) Bandwidth(MB/s)
33554432 12215.0 Device to Host Bandwidth, 1 Device(s)
PINNED Memory Transfers
Transfer Size (Bytes) Bandwidth(MB/s)
33554432 12826.1 Device to Device Bandwidth, 1 Device(s)
PINNED Memory Transfers
Transfer Size (Bytes) Bandwidth(MB/s)
33554432 226792.0 Result = PASS NOTE: The CUDA Samples are not meant for performance measurements. Results may vary when GPU Boost is enabled.

最后附上官方的安装教程:https://docs.nvidia.com/deeplearning/cudnn/archives/cudnn-881/install-guide/index.html#install-windows

6.安装Pytorch

首先使用Anaconda创建一个虚拟环境并激活,名字随意,例如Pytorch。

conda create -n Pytorch python=3.11
conda activate Pytorch

然后前去Pytorch官网根据自己需要获取安装Pytorch的命令:

https://pytorch.org/get-started/locally/

在新激活的虚拟环境Pytorch中运行此命令,静静等待安装完成即可。

# 安装pytorch
conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia

验证pytorch是否安装成功(输出结果为True则代表pytorch安装成功):

(Pytorch) PS D:\学习资料\我的博客> python
Python 3.11.5 | packaged by Anaconda, Inc. | (main, Sep 11 2023, 13:26:23) [MSC v.1916 64 bit (AMD64)] on win32
Type "help", "copyright", "credits" or "license" for more information.
>>> import torch
>>> torch.cuda.is_available()
True
>>>

7.安装TensorRT

首先前往官网根据自己的CUDA版本选择并下载合适版本的TensorRT安装包,比如我的是CUDA12.0,则应该下载TensorRT 8.6 GA for Windows 10 and CUDA 12.0 and 12.1 ZIP Package

其余CUDA版本对应的TensorRT版本详见官方文档中NVIDIA TensorRT Support Matrix链接:

https://docs.nvidia.com/deeplearning/tensorrt/archives/index.html

下载完成后根据官方安装教程进行安装(windows版):

https://docs.nvidia.com/deeplearning/tensorrt/archives/tensorrt-861/install-guide/index.html#installing-zip

首先解压下载后的安装包,并将lib目录添加到系统Path环境变量中。

然后根据自己的python版本安装tensorrt的python wheel,例如我是python3.11,则应该运行如下命令:

# 切换到TensorRT安装目录
cd D:/Environment/TensorRT-8.6.1.6
# 必选,安装tensorRT
pip install ./python/tensorrt-8.6.1-cp311-none-win_amd64.whl
# 可选,安装TensorRT精简和调度运行时轮子文件
pip install ./python/tensorrt_lean-8.6.1-cp311-none-win_amd64.whl
pip install ./python/tensorrt_dispatch-8.6.1-cp311-none-win_amd64.whl

要想验证TensorRT是否安装成功,可以打开D:\Environment\TensorRT-8.6.1.6\samples文件夹,即tensorRT安装目录下的samples文件夹,选择一个示例项目,如sampleOnnxMNIST并用Visual Studio打开,根据README的教程测试即可。

如果需要在Pytorch中使用TensorRT,还需要安装TensorRT安装目录下的3个whl文件,安装命令如下:

# 切换到TensorRT安装目录
cd D:/Environment/TensorRT-8.6.1.6
# 依次进行安装
pip install ./graphsurgeon/graphsurgeon-0.4.6-py2.py3-none-any.whl
pip install ./uff/uff-0.6.9-py2.py3-none-any.whl
pip install ./onnx_graphsurgeon/onnx_graphsurgeon-0.3.12-py2.py3-none-any.whl

然后就大功告成啦。

8.结束

这样一来基本的深度学习环境就装好了~

深度学习环境搭建(Windows11)的更多相关文章

  1. 深度学习环境搭建:Tensorflow1.4.0+Ubuntu16.04+Python3.5+Cuda8.0+Cudnn6.0

    目录 深度学习环境搭建:Tensorflow1.4.0+Ubuntu16.04+Python3.5+Cuda8.0+Cudnn6.0 Reference 硬件说明: 软件准备: 1. 安装Ubuntu ...

  2. 保姆级教程——Ubuntu16.04 Server下深度学习环境搭建:安装CUDA8.0,cuDNN6.0,Bazel0.5.4,源码编译安装TensorFlow1.4.0(GPU版)

    写在前面 本文叙述了在Ubuntu16.04 Server下安装CUDA8.0,cuDNN6.0以及源码编译安装TensorFlow1.4.0(GPU版)的亲身经历,包括遇到的问题及解决办法,也有一些 ...

  3. 在 win11 下搭建并使用 ubuntu 子系统(同时测试 win10)——(附带深度学习环境搭建)

    对于一个深度学习从事者来说,Windows训练模型有着诸多不便,还好现在Windows的Ubuntu子系统逐渐完善,近期由于工作需求,配置了Windows的工作站,为了方便起见,搭建了Ubuntu子系 ...

  4. [AI开发]centOS7.5上基于keras/tensorflow深度学习环境搭建

    这篇文章详细介绍在centOS7.5上搭建基于keras/tensorflow的深度学习环境,该环境可用于实际生产.本人现在非常熟练linux(Ubuntu/centOS/openSUSE).wind ...

  5. linux系统下深度学习环境搭建和使用

    作为一个AI工程师,对Linux的一些技能的掌握也能从一定层面反应工程师的资深水平. 要求1:基于SSH的远程访问(本篇文章) 能用一台笔记本电脑,远程登陆一台linux服务器 能随时使用笔记本电脑启 ...

  6. Win10+RTX2080深度学习环境搭建:tensorflow、mxnet、pytorch、caffe

    目录 准备工作 设置conda国内镜像源 conda 深度学习环境 tensorflow.mxnet.pytorch安装 tensorflow mxnet pytorch Caffe安装 配置文件修改 ...

  7. Ubuntu深度学习环境搭建 tensorflow+pytorch

    目前电脑配置:Ubuntu 16.04 + GTX1080显卡 配置深度学习环境,利用清华源安装一个miniconda环境是非常好的选择.尤其是今天发现conda install -c menpo o ...

  8. 深度学习环境搭建部署(DeepLearning 神经网络)

    工作环境 系统:Ubuntu LTS 显卡:GPU NVIDIA驱动:410.93 CUDA:10.0 Python:.x CUDA以及NVIDIA驱动安装,详见https://www.cnblogs ...

  9. 深度学习环境搭建(CUDA9.0 + cudnn-9.0-linux-x64-v7 + tensorflow_gpu-1.8.0 + keras)

    关于计算机的硬件配置说明 推荐配置 如果您是高校学生或者高级研究人员,并且实验室或者个人资金充沛,建议您采用如下配置: 主板:X299型号或Z270型号 CPU: i7-6950X或i7-7700K ...

  10. 深度学习环境搭建常用网址、conda/pip命令行整理(pytorch、paddlepaddle等环境搭建)

    前言:最近研究深度学习,安装了好多环境,记录一下,方便后续查阅. 1. Anaconda软件安装 1.1 Anaconda Anaconda是一个用于科学计算的Python发行版,支持Linux.Ma ...

随机推荐

  1. jQuery父子页面之间元素、方法获取、调用

    资源来自:https://www.cnblogs.com/it-xcn/p/5896231.html 一.jquery 父.子页面之间页面元素的获取,方法的调用: 1. 父页面获取子页面元素: 格式: ...

  2. [TK] 三色二叉树 hzoi-tg#282 存图方法

    可以发现,假如在序列中遇到一个数为 \(2\) ,也就是有两个子节点,那么接下来的全部数字都是描述左树的,一直到左树被遍历完成. 这让你想到了什么? 当然是DFS啦. 根据DFS我们有下面这样的存图思 ...

  3. 深入理解HDFS 错误恢复

    我们从动态的角度来看 hdfs 先从场景出发,我们知道 hdfs 的写文件的流程是这样的: 数据以 pipeline 的方式写入 hdfs ,然后对于读取操作,客户端选择其中一个保存块副本的 Data ...

  4. 【Simpleperf】Android的CPU分析,性能优化利器

    很多时候,写代码是一件很爽的事情,但最后需要对APP进行瘦身.性能分析却是一件很棘手的事情.当需要对APP的性能进行分析时,Simpleperf是一个简单快捷的选择. 正文开始前,先奉上官方的资料: ...

  5. 标准库之 random 模块

    一.介绍random模块 1.1.random模块简介 random模块是Python标准库中用于生成伪随机数的模块,伪随机数是通过算法生成的数列,在一定范围内表现出随机性,虽然这些数列在一定程度上是 ...

  6. 忽略某个已经托管给git的文件,防止二次提交

    # 执行命令将文件加入不提交队列 git update-index --assume-unchanged 你的文件路径 # 执行命令将文件取消加入不提交队列 git update-index --no ...

  7. 使用 GitLab 账号登陆 KubeSphere

    作者:李帅 介绍 KubeSphere 多租户是实际生产使用中非常需要的一个功能,该功能满足不同用户登陆 KubeSphere 平台的需求.比如开发,运维,测试都需要登陆 KubeSphere 平台, ...

  8. 常见APR攻击及其防护

    0x01 什么是ARP 地址解析协议--ARP:是根据IP地址获取物理地址的一个TCP/IP协议.主机发送信息时将包含目标IP地址的ARP请求广播到局域网络上的所有主机,并接收返回消息,以此确定目标的 ...

  9. Web渗透09_文件包含漏洞

    1 文件包含漏洞描述 开发人员编写代码时独立性好是一个很重要的要求,这边一个数据库类,那边一个模型类.几百行的整体代码,在整合时两行行代码就可以包含进来使用.文件包含有助于独立的代码之间的配合!有时引 ...

  10. vue之JavaScript封装

    导入js文件有很多种方式,我喜欢使用这种,感觉跟框架导入很相似.没有多余的沉湎. 定义一个js文件,比如util.js import Vue from "vue"; //===== ...