1,“CUDA_VISIBLE_DEVICES”:自定义要使用的GPU(tensorflow中默认是全部使用的) 注意:GPU一般是从0开始编号的,可以通过nvidia-smi查看
import os os.environ["CUDA_VISIBLE_DEVICES"] = "2" #仅使用GPU2(也就是第3块GPU) os.environ["CUDA_VISIBLE_DEVICES"] = "2, 3" #也可以指定多块 os.environ["CUDA_VISIBLE_DEVICES"] = "" #不使用GPU2,“TF_CPP_MIN_LOG_LEVEL”:设置log级别(也就是程序运行时打印什么信息) 实际上就是有一个优先级(从左到右严重性递增):INFO<WARING<ERROR<FATAL 注意:设置为3不是说什么信息都不打印了,ERROR之上还有ATAL(这个单词是致命的意思)
import os os.environ['TF_CPP_MIN_LOG_LEVEL']='0' #默认值,打印所有信息 os.environ['TF_CPP_MIN_LOG_LEVEL']='1' #屏蔽INFO信息 os.environ['TF_CPP_MIN_LOG_LEVEL']='2' #屏蔽INFO与WARNING信息 os.environ['TF_CPP_MIN_LOG_LEVEL']='3' #屏蔽INFO, WARING, ERROR信息3,运行training或者test脚本时,请确保将环境变量TF_CUDNN_USE_AUTOTUNE 设置为 0 进行预测时TF不会再自动进行AUTOTUNE
os.environ['TF_CUDNN_USE_AUTOTUNE'] = '0'