- TensorFlow 教程
- TensorFlow - 主页
- TensorFlow - 简介
- TensorFlow - 安装
- 了解人工智能
- 数学基础
- 机器学习与深度学习
- TensorFlow - 基础知识
- 卷积神经网络
- 循环神经网络
- TensorBoard 可视化
- TensorFlow - 词嵌入
- 单层感知器
- TensorFlow - 线性回归
- TFLearn 及其安装
- CNN 和 RNN 区别
- TensorFlow - Keras
- TensorFlow - 分布式计算
- TensorFlow - 导出
- 多层感知器学习
- 感知器的隐藏层
- TensorFlow - 优化器
- TensorFlow - 异或实现
- 梯度下降优化
- TensorFlow - 形成图
- 使用 TensorFlow 进行图像识别
- 神经网络训练的建议
- TensorFlow 有用资源
- TensorFlow - 快速指南
- TensorFlow - 有用的资源
- TensorFlow - 讨论
TensorFlow - 分布式计算
本章将重点介绍如何开始使用分布式 TensorFlow。目的是帮助开发人员理解重复出现的基本分布式 TF 概念,例如 TF 服务器。我们将使用 Jupyter Notebook 来评估分布式 TensorFlow。下面提到使用 TensorFlow 进行分布式计算 -
步骤 1 - 导入分布式计算必需的必要模块 -
import tensorflow as tf
第 2 步- 创建一个具有一个节点的 TensorFlow 集群。让该节点负责一项名为“worker”的作业,该作业将在 localhost:2222 上运行一个镜头。
cluster_spec = tf.train.ClusterSpec({'worker' : ['localhost:2222']}) server = tf.train.Server(cluster_spec) server.target
上述脚本生成以下输出 -
'grpc://localhost:2222' The server is currently running.
步骤 3 - 可以通过执行以下命令来计算具有相应会话的服务器配置 -
server.server_def
上述命令生成以下输出 -
cluster { job { name: "worker" tasks { value: "localhost:2222" } } } job_name: "worker" protocol: "grpc"
步骤 4 - 启动 TensorFlow 会话,执行引擎为服务器。使用 TensorFlow 创建本地服务器并使用lsof找出服务器的位置。
sess = tf.Session(target = server.target) server = tf.train.Server.create_local_server()
步骤 5 - 查看此会话中可用的设备并关闭相应的会话。
devices = sess.list_devices() for d in devices: print(d.name) sess.close()
上述命令生成以下输出 -
/job:worker/replica:0/task:0/device:CPU:0