TF之Windows:Windows系统下设置Tensorflow运行方式为GPU加速运行的详细攻略

网友投稿 1914 2022-09-16

TF之Windows:Windows系统下设置Tensorflow运行方式为GPU加速运行的详细攻略

TF之Windows:Windows系统下设置Tensorflow运行方式为GPU加速运行的详细攻略

TF之Windows:Windows系统下设置Tensorflow运行方式为GPU加速运行的详细攻略

​目录​

​​软件环境​​

​​1、第一步安装好CUDA软件程序​​

​​2、第二步安装好tensorflow-gpu库​​

​​GPU加速环境设置​​

​​T1、py文件内头部设定​​

​​T2、运行终端内设定​​

​​2、如果只使用GPU运行​​

​​测试是否为GPU加速​​

​​查看电脑GPU运行情况​​

​​T1、利用自带的资源管理器查看,有两块GPU​​

软件环境

1、第一步安装好CUDA软件程序

推荐文章:

​​Py之TF/Cuda/Cudnn:Win10下安装深度学习框架Tensorflow+Cuda+Cudnn最简单最快捷最详细攻略​​

​​Ubuntu:Ubuntu下安装Anocuda和Tensorflow最详细攻略​​

2、第二步安装好tensorflow-gpu库

推荐文章:

​​TensorFlow:深度学习框架TensorFlow的简介、安装、使用方法详细攻略​​

GPU加速环境设置

1、在配置好GPU环境的TensorFlow中,如果操作没有明确地指定运行设备,那么TensorFlow会优先选择GPU。如果电脑有多个GPU,tensorflow默认全部使用。如果想只使用部分GPU,可以设置CUDA_VISIBLE_DEVICES。

2、TensorFlow程序可以通过tf.device函数来指定运行每一个操作的设备,这个设备可以是本地的CPU或者GPU,也可以是某一台远程的服务器。

3、在默认情况下,TensorFlow只会将运算优先放到/gpu:0上。通过以下程序测试,所有的运算都被放在了/gpu:0上。如果需要将某些运算放到不同的GPU或者CPU上,就需要通过tf.device来手工指定。以下程序给出了一个通过tf.device手工指定运行设备的样例。

4、TensorFlow在生成会话时可以指定allow_soft_placement参数。当allow_soft_placement参数设置为True时,如果运算无法由GPU执行,那么TensorFlow会自动将它放到CPU上执行。

T1、py文件内头部设定

#1、指定GPU环境import osprint(os.environ['CUDA_VISIBLE_DEVICES'])#2、指定在第2块GPU上运行import osos.environ['CUDA_VISIBLE_DEVICES']='2'

T2、运行终端内设定

#使用第0块、第1块GPU运行CUDA_VISIBLE_DEVICES=0,1 python train.py #想指定几块GPU就标明GPU序号即可,中间用逗号隔开

2、如果只使用GPU运行

with tf.device("/cpu:0"):

测试是否为GPU加速

1、通过log_device_placement参数来输出运行每一个运算的设备

import tensorflow as tfa = tf.constant([1.0, 2.0, 3.0], shape=[3], name='a')b = tf.constant([1.0, 2.0, 3.0], shape=[3], name='b')c = a + b# 通过log_device_placement参数来输出运行每一个运算的设备。sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))print (sess.run(c))

查看电脑GPU运行情况

T1、利用自带的资源管理器查看,有两块GPU

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:基于visual c++之windows核心编程代码分析(45)利用Windows系统服务启动程序
下一篇:闲得发慌篇_字符串直接赋值与替换性能对比(可以在赋值语句中通过赋值运算符对字符数组整体赋值吗)
相关文章

 发表评论

暂时没有评论,来抢沙发吧~