GPU 显存释放
我们在使用tensorflow 的时候, 有时候会在控制台终止掉正在运行的程序,但是有时候程序已经结束了,nvidia-smi也看到没有程序了,但是GPU的内存并没有释放,那么怎么解决该问题呢?
首先执行下面的命令:
fuser -v /dev/nvidia* #查找占用GPU资源的PID
因为我们只有一块显卡,所以显示如下图所示:
可以看到我们的nvidia0上还有一个python 2.7的PID
然后我们执行:
kill -9 pid
然后再执行nvidia-smi就可以看到内存已经被释放了
GPU 显存实施查看:
但是有时我们希望不仅知道那一固定时刻的GPU使用情况,我们希望一直掌握其动向,此时我们就希望周期性地输出,比如每 10s 就更新显示。
这时候就需要用到 watch命令,来周期性地执行nvidia-smi命令了。
了解一下watch的功能:
$ whatis watch
watch(1) - execute a program periodically, showing output fullscreen
作用:周期性执行某一命令,并将输出显示。
watch的基本用法是:
$ watch [options] command
最常用的参数是 -n, 后面指定是每多少秒来执行一次命令。
监视显存:我们设置为每 10s 显示一次显存的情况:
$ watch -n 10 nvidia-smi
原文:https://blog.csdn.net/jasonzzj/article/details/52649174
查看是否使用GPU计算:
import tensorflow as tf
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
查看日志信息若包含gpu信息,就是使用了gpu。
其他方法:跑计算量大的代码,通过 nvidia-smi 命令查看gpu的内存使用量。
相关文章
- 如何确认计算机的GPU配置
- Python视觉深度学习系列教程 第三卷 第1章 使用多个 GPU 训练网络
- 机器学习笔记 - win10安装Pytorch-GPU版本并训练第一个神经网络
- Qt音视频开发24-视频显示QOpenGLWidget方式(占用GPU)
- DL之IDE:深度学习环境安装之查看本地的电脑显卡是否支持GPU以及需要安装匹配的CUDA版本、tensorflow_gpu版本等
- jittor 和pytorch gpu 使用效率对比(惊人jittor的算力利用率是pytorch 4-5倍)
- torch.nn.DataParallel()--多个GPU加速训练
- Windows 10下安装配置Caffe并支持GPU加速(修改版)
- Windows10完美安装AI绘画软件stable-diffusion-webui:没有GPU显卡的电脑系统也能运行、测试AI绘画软件【包教会一键安装】
- AI模型设计:完美实现C语言调用python训练的tensorflow2.5-gpu循环神经网络模型并进行预测
- 完美解决tensorflow-gpu2.4没有multi_gpu_model的问题
- linux内核radeon gpu源码解析5 —— drm_get_pci_dev函数详解2
- C++版本的OpenCV 5.x编译生成opencv-python==5.x(GPU版本)接口并进行调用
- 安装Hyper-V、WSL与虚拟机调用NVIDIA-GPU进行深入学习计算
- RTX30系列linux+docker容器的GPU配置(tensorflow-gpu==1.15~2.x、tensorrt 7、cuda、cudnn)附加resnet50模型测试
- linux内核radeon gpu源码解析3 —— Radeon初始化
- CentOS 7 docker GPU支持 —— 筑梦之路
- python中运行scvi整合数据去除批次效应时 gpu可以加速为何GPU可以用于加速人工智能或者机器学习的计算速度(并行计算能力)