前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >GPU云服务器深度学习基本使用攻略

GPU云服务器深度学习基本使用攻略

原创
作者头像
用户9702326
发布2022-05-28 17:23:13
3.3K0
发布2022-05-28 17:23:13
举报
文章被收录于专栏:深度环境配置深度环境配置

本文讲解了如何安装cuda、cudnn以及如何在服务器上创建并管理虚拟环境,我们只有学会这些基本的使用方法,才能进入深度学习环境,开始我们的学习与研究,所以这部分内容是基本而十分重要的。

Cuda安装

1. 下载CUDA Toolkit 官网网址:https://developer.nvidia.com/cuda-toolkit-archive

CUDA Toolkit Archive | NVIDIA Developer

2. 安装 你自己可以建个文件夹,然后在文件夹中输入上述两条命令:用上图installation instruction下面的命令

wget http://developer.download.nvidia.com/compute/cuda/10.2/Prod/local_installers/cuda_10.2.89_440.33.01_linux.run

sudo sh cuda_10.2.89_440.33.01_linux.run

3. 在出现的提示中选择continue和accept,直到出现install提示:

添加环境变量 sudo vim /etc/profile #(对所有用户) sudo vim ~/.bashrc #(对当前用户)

4. 末行添加并保存退出。(检查一下自己的地址) export PATH=/usr/local/cuda-10.2/bin:$PATH export LD_LIBRARY_PATH=/usr/local/cuda-0.2/lib64:$LD_LIBRARY_PATH

5. 然后source激活

source /etc/profile #(对所有用户)

或者

source ~/.bashrc #(对当前用户)

6. 终端输入

cd /usr/local/cuda-10.2/samples/1_Utilities/deviceQuery sudo make ./deviceQuery

出现Result = PASS则表示安装成功通过!!如果没有Pass重启试试!

4. 检查驱动版本和CUDA toolkit

cat /proc/driver/nvidia/version nvcc -V

在终端输入命令,实时查看GPU的使用情况:

CuDNN安装

1. 下载cuDNN Library for Linux (需注册账号:https://developer.nvidia.com/)

https://developer.nvidia.com/rdp/cudnn-download

2. 解压下载好的文件,解压后cuDNN的文件夹名称为cuda(按照自己指令修改)

tar -zxvf cudnn-10.2-linux-x64-v7.6.5.32.tgz

3. 将cuDNN内容复制到CUDA安装文件中,即将cuDNN解压后的cuda文件中内容复制到/usr/local的CUDA中。(这里需要检查自己路径)

sudo cp cuda/include/cudnn.h /usr/local/cuda/include/ sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64/ sudo chmod a+r /usr/local/cuda/include/cudnn.h sudo chmod a+r /usr/local/cuda/lib64/libcudnn*

4. 验证cudnn是否安装成功

sudo dpkg -i libcudnn7_7.6.5.32-1+cuda10.2_amd64.deb sudo dpkg -i libcudnn7-dev_7.6.5.32-1+cuda10.2_amd64.deb sudo dpkg -i libcudnn7-doc_7.6.5.32-1+cuda10.2_amd64.deb

5. 当选择Debian File进行安装时会在/usr/src/cudnn_samples_v7有一些cudnn的例子,编译mnistCUDNN sample进行验证

cp -r /usr/src/cudnn_samples_v7/ $HOME cd $HOME/cudnn_samples_v7/mnistCUDNN make clean && make ./mnistCUDNN

如果安装成功将会有如下图所示的:Test passed!

6. 查看是否安装成功

cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2

anaconda管理环境并验证tf-gpu是否可用

1. 查看当前存在哪些虚拟环境 conda env list

2. 创建Python虚拟环境

conda create -n your_env_name python=3.6

例如:conda create -n Face_Rec python=3.6

3. 激活并进入环境

activate env_name

例如:activate Face_Rec

4. 在环境中安装需要的库

例如:pip install tensorflow==1.13.1

5. 检测tensorflow-gpu(1.13.1)是否能用代码如下: import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL']='2' print(tf.__version__) a = tf.constant(1.) b = tf.constant(2.) c = tf.constant([1.0,2.0]) d = tf.constant([2.0,3.0]) r = a + b m = c + d sess=tf.InteractiveSession() print(r) print(r.eval()) print(m) print(m.eval()) print('GPU:', tf.test.is_gpu_available()) sess.close()

最后直接运行自己代码训练就可以了,很感激腾讯云 GPU 云服务器为我们提供便利,我会一直关注并推荐给周围的人。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
作者已关闭评论
0 条评论
热度
最新
推荐阅读
目录
  • Cuda安装
  • CuDNN安装
  • anaconda管理环境并验证tf-gpu是否可用
相关产品与服务
云服务器
云服务器(Cloud Virtual Machine,CVM)提供安全可靠的弹性计算服务。 您可以实时扩展或缩减计算资源,适应变化的业务需求,并只需按实际使用的资源计费。使用 CVM 可以极大降低您的软硬件采购成本,简化 IT 运维工作。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
http://www.vxiaotou.com