tensorflow指定GPU与动态分配GPU memory设置
更新时间:2020年02月03日 11:40:18 作者:sherry颖
今天小编就为大家分享一篇tensorflow指定GPU与动态分配GPU memory设置,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
在tensorflow中,默认指定占用所有的GPU,如需指定占用的GPU,可以在命令行中:
export CUDA_VISIBLE_DEVICES=1
这样便是只占用1号GPU,通过命令
nvidia-smi
可以查看各个GPU的使用情况。
另外,也可以在python程序中指定GPU,并且动态分配memory,代码如下
import os import sys os.environ['CUDA_VISIBLE_DEVICES'] = sys.argv[1] import tensorflow as tf from keras.backend.tensorflow_backend import set_session config = tf.ConfigProto() config.gpu_options.allow_growth = True set_session(tf.Session(config=config))
这样,占用的GPU就是sys.argv[1]了,并且会按需分配memory。
以上这篇tensorflow指定GPU与动态分配GPU memory设置就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。
相关文章
详解python ThreadPoolExecutor异常捕获
本文主要介绍了详解python ThreadPoolExecutor异常捕获,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧2023-01-01
最新评论