在本章中,我将简要介绍 TensorFlow 的代码及其编程模型。在本章的最后,读者可以在他们的个人计算机上安装 TensorFlow 软件包。
学术界已经对机器学习进行了数十年的调查,但直到近几年,它的渗透率在企业中也有所增加。这要归功于它已经拥有的大量数据以及现在可用的前所未有的计算能力。
在这种情况下,毫无疑问,在 Alphabet 的支持下,谷歌是机器学习技术在其所有虚拟计划和产品中发挥关键作用的最大公司之一。
去年10月,当 Alphabet 宣布那个季度谷歌的业绩,销售额和利润大幅增加时,首席执行官桑达皮采清楚地说:“机器学习是一种核心的,变革性的方式,我们正在重新思考我们正在做的一切”。
从技术上讲,我们正面临着谷歌不是唯一一个重要角色的时代变迁。其他技术公司,如微软,Facebook,亚马逊和苹果等众多公司也在增加对这些领域的投资。
在此背景下,几个月前谷歌在开源许可证(Apache 2.0)下发布了 TensorFlow 引擎。想要将机器学习纳入其项目和产品的开发人员和研究人员可以使用 TensorFlow,就像 Google 在内部使用 Gmail,Google 照片,搜索,语音识别等不同的商业产品一样。
TensorFlow 最初是由 Google Brain Team 开发的,目的是进行机器学习和深度神经网络研究,但该系统足以应用于各种其他机器学习问题。
由于我是一名工程师,而且我正在与工程师交谈,因此本书将深入了解数据流图如何表示算法。TensorFlow 可以看作是使用数据流图进行数值计算的库。图中的节点表示数学运算,而图的边表示多维数据数组(张量),它们将节点互连。
TensorFlow 围绕构建和操作计算图的基本思想构建,象征性地表示要执行的数值运算。这使得 TensorFlow 现在可以从 Linux 64 位平台(如 Mac OS X)以及 Android 或 iOS 等移动平台中利用 CPU 和 GPU。
这个新软件包的另一个优点是它的可视 TensorBoard 模块,它提供了大量有关如何监视和显示算法运行的信息。在创建更好的模型的过程中,能够测量和显示算法的行为是非常重要的。我感觉目前许多模型都是通过一个小型的盲目过程,通过试错来调优,明显浪费资源,以及最重要时间。
最近 Google 推出了 TensorFlow 服务 [3],这有助于开发人员将他们的 TensorFlow 机器学习模型(即使如此,也可以扩展来服务其他类型的模型)投入生产。TensorFlow 服务是一个开源服务系统(用 C++ 编写),现在可以在 Apache 2.0 许可下在 GitHub 上获得。
TensorFlow 和 TensorFlow 服务有什么区别? 在 TensorFlow 中,开发人员更容易构建机器学习算法,并针对某些类型的数据输入进行训练,TensorFlow 服务专门使这些模型可用于生产环境。我们的想法是开发人员使用 TensorFlow 训练他们的模型,然后他们使用 TensorFlow 服务的 API 来响应来自客户端的输入。
这允许开发人员根据实际数据大规模试验不同的模型,并随时间变化,保持稳定的架构和 API。
典型的流水线是将训练数据提供给学习器,学习器输出模型,模型在被验证之后准备好部署到 TensorFlow 服务系统。 随着时间的推移和新数据的出现,改进模型,启动和迭代我们的模型是很常见的。事实上,在 Google 的博文中 [4] 中,他们提到在谷歌,许多流水线都在持续运行,随着新数据的出现,产生了新的模型版本。
开发人员用来与 TensorFlow 服务进行通信的前端实现,基于 gRPC ,这是一种来自 Google 的高性能开源RPC框架。
如果你有兴趣了解 TensorFlow 服务的更多信息,我建议你先阅读服务架构概述 [5] 部分,设置你的环境并开始阅读基础教程 [6]。
是时候做一些事情了。从现在开始,我建议你交替阅读和在计算机上练习。
TensorFlow 有 Python API(以及 C/C++),需要安装 Python 2.7(我假设任何阅读本书的工程师都知道如何操作)。
通常,在使用 Python 时,应使用虚拟环境virtualenv
。 virtualenv
是一种工具,用于在同一台计算机的不同部分中保持不同项目所需的 Python 依赖关系。如果我们使用virtualenv
来安装 TensorFlow,这将不会覆盖需要 TensorFlow 的其他项目的现有 Python 包版本。
首先,如果尚未安装pip
和virtualenv
,则应安装,如下面的脚本所示:
# Ubuntu/Linux 64-bit
$ sudo apt-get install python-pip python-dev python-virtualenv
# Mac OS X
$ sudo easy_install pip
$ sudo pip install --upgrade virtualenv
~/tensorflow
目录中的环境virtualenv
:
$ virtualenv --system-site-packages ~/tensorflow
下一步是激活virtualenv
。这可以按如下方式完成:
$ source ~/tensorflow/bin/activate # with bash
$ source ~/tensorflow/bin/activate.csh # with csh
(tensorflow)$
我们工作的虚拟环境的名称,将从现在开始显示在每个命令行的开头。激活virtualenv
后,你可以使用pip
在其中安装 TensorFlow:
# Ubuntu/Linux 64-bit, CPU only:
(tensorflow)$ sudo pip install --upgrade https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.7.1-cp27-none-linux_x86_64.whl
# Mac OS X, CPU only:
(tensorflow)$ sudo easy_install --upgrade six
(tensorflow)$ sudo pip install --upgrade https://storage.googleapis.com/tensorflow/mac/tensorflow-0.7.1-cp27-none-any.whl
我建议你访问此处提供的官方文档,来确保你安装的是最新版本。
如果运行代码的平台具有 GPU,要使用的包不同。我建议你访问官方文档,了解你的 GPU 是否符合支持 Tensorflow 所需的规范。运行 Tensorflow GPU 需要安装其他软件,所有信息都可以在下载和设置 TensorFlow [7] 网页上找到。对于使用 GPU 的更多信息,我建议阅读第 6 章。
最后,当你完成后,你应该按如下方式禁用虚拟环境:
(tensorflow)$ deactivate
鉴于本书的介绍性质,我们建议读者访问上述官方文档页面,来查找安装 Tensorflow 的其他方法的更多信息。
正如我在开始时提到的那样,我们将通过很少的理论和大量练习来探索 TensorFlow 星球。开始吧!
从现在开始,最好使用任何文本编辑器编写 python 代码并使用扩展名.py
保存(例如test.py
)。要运行代码,使用命令python test.py
就足够了。
为了获得 TensorFlow 程序的第一印象,我建议编写一个简单的乘法程序;代码看起来像这样:
import tensorflow as tf
a = tf.placeholder("float")
b = tf.placeholder("float")
y = tf.mul(a, b)
sess = tf.Session()
print sess.run(y, feed_dict={a: 3, b: 3})
在此代码中,在导入 Python 模块tensorflow
之后,我们定义“符号”变量,称为占位符,以便在程序执行期间操作它们。然后,我们将这些变量作为参数,调用 TensorFlow 提供的乘法函数。tf.mul
是 TensorFlow 为操纵张量而提供的众多数学运算之一。在这个时候,张量可以认为是动态大小的多维数据数组。
主要运算如下表所示:
运算 | 描述 |
---|---|
tf.add |
加法 |
tf.sub |
减法 |
tf.mul |
乘法 |
tf.div |
除法 |
tf.mod |
模 |
tf.abs |
返回绝对值 |
tf.neg |
返回负值 |
tf.sign |
返回标志 |
tf.inv |
返回倒数 |
tf.square |
计算平方 |
tf.round |
返回最接近的整数 |
tf.sqrt |
计算平方根 |
tf.pow |
计算指数 |
tf.exp |
计算自然指数 |
tf.log |
计算自然对数 |
tf.maximum |
返回最大值 |
tf.minimum |
返回最小值 |
tf.cos |
计算余弦 |
tf.sin |
计算正弦 |
TensorFlow 还为程序员提供了许多函数,来对矩阵执行数学运算。一些列在下面:
运算 | 描述 |
---|---|
tf.diag |
返回具有给定对角线值的对角张量 |
tf.transpose |
返回参数的转置 |
tf.matmul |
返回由参数列出的两个张量的张量积 |
tf.matrix_determinant |
返回由参数指定的方阵的行列式 |
tf.matrix_inverse |
返回由参数指定的方阵的逆 |
下一步,最重要的一步是创建一个会话来求解指定的符号表达式。实际上,到目前为止,这个 TensorFlow 代码尚未执行任何操作。我要强调的是,TensorFlow 既是表达机器学习算法的接口,又是运行它们的实现,这是一个很好的例子。
程序通过使用Session()
创建会话来与 Tensorflow 库交互;只有在我们调用run()
方法时才会创建这个会话,这就是它真正开始运行指定代码的时候。在此特定示例中,使用feed_dict
参数将变量的值传给run()
方法。这里,相关代码求解表达式,并且从显示器返回 9 作为结果。
通过这个简单的例子,我试图介绍在 TensorFlow 中编程的常规方法,首先指定整个问题,并最终创建一个可以运行相关计算的会话。
然而,有时我们感兴趣的是构造代码的更多的灵活性,插入操作来构建某个图,这些操作运行它的一部分。例如,当我们使用 Python 的交互式环境时,例如 IPython [8],就会发生这种情况。为此,TesorFlow 提供了tf.InteractiveSession()
类。
这种编程模型的动机超出了本书的范围。但是,为了继续下一章,我们只需要知道所有信息都在内部保存在图结构中,它包含所有操作和数据的信息。
该图描述了数学运算。节点通常实现数学运算,但它们也可以表示数据输入,输出结果或读/写持久变量。边描述节点与其输入和输出之间的关系,同时携带张量,即 TensorFlow 的基本数据结构。
将信息表示为图允许 TensorFlow 知道事务之间的依赖关系,并异步并行地将操作分配给设备,当这些操作已经具有可用的相关张量(在边缘输入中指示)时。
因此,并行性是使我们能够加速一些计算昂贵的算法的执行的因素之一,但也因为 TensorFlow 已经有效地实现了一组复杂的操作。此外,大多数这些操作都具有关联的内核,这些内核是为特定设备(如 GPU)设计的操作的实现。下表总结了最重要的操作/内核 [9]:
操作组 | 操作 |
---|---|
数学 | 加,减,乘,除,指数,对数,大于,小于,等于 |
排列 | 连接,切片,分割,常数,阶,形状,打乱 |
矩阵 | MatMul,MatrixInverse,MatrixDeterminant |
神经网络 | SoftMax,Sigmoid,ReLU,Convolution2D,MaxPool |
检查点 | 保存,还原 |
队列和同步 | Enqueue,Dequeue,MutexAcquire,MutexRelease |
流量控制 | 合并,切换,进入,离开,NextIteration |
为了使其更加全面,TensorFlow 包含了名为 TensorBoard 的可视化工具来调试和优化程序的功能。TensorBoard 可以以图形方式查看计算图任何部分的参数和细节的不同类型的统计信息。
TensorBoard 模块显示的数据在 TensorFlow 执行期间生成,并存储在跟踪文件中,其数据来自摘要操作。在 TensorFlow 的文档页面 [10] 中,你可以找到 Python API 的详细说明。
我们调用它的方式非常简单:从命令行中使用 Tensorflow 命令启动服务,它包含要跟踪的文件作为参数。
(tensorflow)$ tensorboard --logdir=
你只需要使用http//localhost:6006 /
从浏览器中 [11] 访问本地套接字 6006。
名为 TensorBoard 的可视化工具超出了本书的范围。对于 Tensorboard 如何工作的更多详细信息,读者可以访问 TensorFlow 教程页面中的 TensorBoard 图形可视化 [12] 部分。