tensorflow(四)—-会话

导读:本篇文章讲解 tensorflow(四)—-会话,希望对大家有帮助,欢迎收藏,转发!站点地址:www.bmabk.com

tensorflow—-会话

一、会话
1.会话的定义和典型流程

会话提供了估计张量(打印张量)和执行操作的运行环境,他是发放计算认为的客户端,所有计算任务都由它连接的执行引擎完成。一个会话的典型使用流程分为以下三步:

# 1.创建会话
tf.Session(target=..., graph=..., config=...)
# 2.估计张量或执行操作
sess.run(...)
# 3.关闭会话
sess.close()

target:会话连接的执行引擎。
graph:会话加载的数据流图。当有多个数据流图时,需要指定一个数据流图加载。
config:会话启动时的配置项。

注意: 用with...as ...语句可以省略sess.close()

2.会话的一个小例子
# 定义占位符
x = tf.placeholder(tf.float16, shape=(), name='x')
y = tf.placeholder(tf.float16, shape=(), name='y')
# 创建数据流图:z = x * y
z = x * y
# 创建会话
with tf.Session() as sess:
    # 向数据节点分别填充: x=6 y=8
    result = sess.run(z, feed_dict={x: 6, y: 8})
    # 输出结果
    print('result of x*y: {}'.format(result))

# 结果:
result of x*y: 48.0
3.会话执行

在之前的文章中,我们已经了解到可以用sess.run(...)的方法去让会话执行操作,比如初始化变量:sess.run(tf.global_variables_initializer())和估计张量(获取张量): sess.run(n)。接下来介绍另外两种会话执行的方法:

  • 估计操作: Tensor.eval(…)
  • 执行操作:Operation.run()

接下来举一个例子:

# 另外两种会话执行的方法:(之前一直用的sess.run(...)方法)
# 定义占位符和变量
x = tf.placeholder(tf.float32, shape=(), name='x')
a = tf.Variable(3.0, name='a')
b = tf.Variable(2.0, name='b')
# 构建数据流图:y = a * x + b
y = a * x + b
with tf.Session() as sess:
    # 执行初始化操作
    tf.global_variables_initializer().run()
    # 向数据节点填充数据: x=2
    result = y.eval(feed_dict={x: 2})
    print('result of a*x+b: {}'.format(result))

# 结果:
result of a*x+b: 8.0

其实,刚才介绍的Tensor.eval(…)和Operation.run()获取张量的方法都是基于sess.run(…)方法实现的,具体流程见下图:
在这里插入图片描述

4.会话的执行原理

当我们调用sess.run(…)语句执行训练操作时:

  1. 首先,程序内部提取依赖的所有前置操作。这些操作的节点共同组成一幅子图。就是把数据流图根据前置操作的依赖关系,分成好几个子图。多个节点依赖一个结点,另外多个结点依赖另一个结点,则可以分为两个子图。
  2. 然后,程序会将子图中的计算节点、存储节点和数据节点按照各自的执行设备分类,相同设备上的节点组成了一幅局部图。就是更具执行设备再将子图分成几个子图。
  3. 最后,每个设备上的局部图在实际执行时,根据节点间的依赖关系将各个节点有序的加载到设备上执行。不同子图上同深度的节点可以并行运行。

在这里插入图片描述
比如上图:

  1. 根据前置操作input无法分割子图。
  2. 子图根据执行设备分割成子子图,这里根据cpu、gpu分为以上两个部分
  3. 首先会加载input节点(因为只有这个节点深度为0),input节点对应操作执行完毕后,左右边消失,reshape和class lable节点变为深度为0的节点,这两个节点同时的被加载,并行执行…
5.会话本地执行

对于单机程序来说,相同的机器上不同编号的cpu或gpu就是不同的设备,我们可以在创建节点时,指定执行该节点的设备。

# 会话本地执行
with tf.device('/cpu:0'):
    tf.Variable(...)
    
with tf.device('/gpu:0'):
    tf.Variable(...)
6.tensorflow本地执行

在这里插入图片描述
client是我们在python中编写的代码,当我们用sess.run(…)时,会调用本地的执行引擎server,而不是调用python解释器去执行。本地执行引擎再根据节点的执行设备不同,分配到相应的设备中执行。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/84748.html

(0)
小半的头像小半

相关推荐

极客之音——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!