Theano 简明教程
Theano - Introduction
你在 Python 中开发过机器学习模型吗?然后,你显然知道开发这些模型的复杂性。开发通常是一个缓慢的过程,需要几个小时和几天的计算能力。
机器学习模型开发需要大量的数学计算。这些通常需要算术计算,特别是多维大矩阵。这些天来,我们使用神经网络而不是传统的统计技术来开发机器学习应用程序。神经网络需要在大量数据上进行训练。分批次训练合理大小的数据。因此,学习过程是迭代的。因此,如果计算没有有效完成,则训练网络可能需要几个小时甚至几天。因此,对可执行代码进行优化是非常需要的。而这正是 Theano 所提供的。
Theano 是一个 Python 库,它能让你定义机器学习中使用的数学表达式,优化这些表达式,并在关键领域精确地使用 GPU 来有效地评估它们。在大多数情况下,它可以与典型的全 C 实现相媲美。
Theano 是在 LISA 实验室编写的,目的是提供高效机器学习算法的快速开发。它是在 BSD 许可证下发布的。
在本教程中,你将学习如何使用 Theano 库。
Theano - Installation
Theano 可以安装在 Windows、MacOS 和 Linux 上。在所有情况下,安装都很简单。在安装 Theano 之前,您必须安装其依赖项。以下是依赖项列表:
-
Python
-
NumPy − Required
-
SciPy - 仅适用于稀疏矩阵和特殊函数
-
BLAS - 提供用于执行基本向量和矩阵运算的标准构建块
您可以根据需要选择安装的可选软件包:
-
nose:运行 Theano 的测试套件
-
Sphinx - 用于构建文档
-
Graphiz 和 pydot - 用于处理图形和图像
-
NVIDIA CUDA 驱动程序 - 用于 GPU 代码生成/执行
-
libgpuarray - 用于在 CUDA 和 OpenCL 设备上进行 GPU/CPU 代码生成
我们将在 MacOS 中讨论安装 Theano 的步骤。
MacOS Installation
要安装 Theano 及其依赖项,请您在命令行中使用 pip ,如下所示。这是本教程中我们将要用到的最小依赖项。
$ pip install Theano
$ pip install numpy
$ pip install scipy
$ pip install pydot
您还需要使用以下命令安装 OSx 命令行开发人员工具:
$ xcode-select --install
将会看到以下屏幕。点击 Install 按钮来安装工具。
在成功安装后,将会在控制台看到成功信息。
Testing the Installation
在 Anaconda Jupyter 中成功完成安装后,打开一个新笔记本。在代码单元格中,输入以下 Python 脚本:
What is Theano?
现在你已经成功安装 Theano,我们首先来了解一下什么是 Theano?Theano 是一个 Python 库。它能让你定义、优化和评估数学表达式,特别是应用于机器学习模型开发的表达式。Theano 本身不包含任何预定义的 ML 模型;它只帮助其开发。它在处理多维数组时特别有用。它与 NumPy 无缝集成,而 NumPy 是 Python 中用于科学计算的基本且广泛使用的软件包。
Theano 用于定义机器学习开发中使用的数学表达式。此类表达式通常涉及矩阵运算、微分、梯度计算等。
Theano 首先为模型构建整个计算图。然后通过对图应用多个优化技术将其编译为高效代码。编译后的代码由 Theano 中 function 可用的特殊操作注入到 Theano 运行时。我们重复执行 function 以训练神经网络。与使用纯 Python 编码甚至完整的 C 实现相比,训练时间大大减少。
现在我们将了解 Theano 开发过程。让我们从如何在 Theano 中定义数学表达式开始。
Theano - A Trivial Theano Expression
让我们从在 Theano 中定义和评估一个平凡表达式开始我们的 Theano 之旅。考虑以下添加两个标量的平凡表达式 −
c = a + b
其中 a 、 b 是变量, c 是表达式输出。在 Theano 中,即使是定义和评估此平凡表达式也很棘手。
让我们了解评估上述表达式的步骤。
Importing Theano
首先,我们需要在程序中导入 Theano 库,我们使用以下语句进行导入 −
from theano import *
与导入单个包不同的是,我们在上面的语句中使用了 * 来包含 Theano 库中的所有包。
Declaring Variables
接下来,我们将使用以下语句声明一个名为 a 的变量 −
a = tensor.dscalar()
dscalar 方法声明一个十进制标量变量。在程序代码中执行上述语句将在程序代码中创建一个名为 a 的变量。同样,我们将使用以下语句创建变量 b −
b = tensor.dscalar()
Defining Expression
接下来,我们将定义作用于这两个变量 a 和 b 上的表达式。
c = a + b
在 Theano 中,上述语句的执行不会执行两个变量 a 和 b 的标量相加。
Defining Theano Function
要评估上述表达式,我们需要在 Theano 中定义一个函数,如下所示 −
f = theano.function([a,b], c)
函数 function 接受两个参数,第一个参数是函数的输入,第二个参数是函数的输出。上述声明说明第一个参数是包含两个元素 a 和 b 的数组类型。输出是一个名为 c 的标量单元。在后续代码中,将使用变量名 f 引用此函数。
Theano - Expression for Matrix Multiplication
我们将计算两个矩阵的点积。第一个矩阵的维度是 2 x 3,第二个矩阵的维度是 3 x 2。我们用作输入的矩阵及其乘积在此处表示为:
Declaring Variables
为上述内容编写 Theano 表达式,我们首先声明两个变量来表示我们的矩阵,如下所示:
a = tensor.dmatrix()
b = tensor.dmatrix()
dmatrix 是双精度矩阵类型。请注意,我们没有在任何地方指定矩阵大小。因此,这些变量可以表示任何维度的矩阵。
Defining Theano Function
接下来,我们定义一个方法,就像早期示例中定义的方法一样,来评估表达式。
f = theano.function([a,b], c)
请注意,方法的输入是两个矩阵类型的变量 a 和 b。方法输出分配给变量 c ,该变量将自动成为矩阵类型。
Theano - Computational Graph
从上述两个示例中,您可能已经注意到,在 Theano 中,我们创建一个表达式,该表达式最终使用 Theano function 进行评估。Theano 使用高级优化技术来优化表达式的执行。为了可视化计算图,Theano 在其库中提供了 printing 软件包。
Symbolic Graph for Scalar Addition
若要查看标量加法程序的计算图,请使用打印库如下:
theano.printing.pydotprint(f, outfile="scalar_addition.png", var_with_name_simple=True)
执行此语句后,将在您的机器上创建一个名为 scalar_addition.png 的文件。保存的计算图在此处显示,供您快速参考:
以下给出生成上述图像的完整程序清单:
from theano import *
a = tensor.dscalar()
b = tensor.dscalar()
c = a + b
f = theano.function([a,b], c)
theano.printing.pydotprint(f, outfile="scalar_addition.png", var_with_name_simple=True)
Symbolic Graph for Matrix Multiplier
现在,尝试为我们的矩阵乘法器创建计算图。生成此图的完整清单如下:
from theano import *
a = tensor.dmatrix()
b = tensor.dmatrix()
c = tensor.dot(a,b)
f = theano.function([a,b], c)
theano.printing.pydotprint(f, outfile="matrix_dot_product.png", var_with_name_simple=True)
生成的图形如下所示:
Theano - Data Types
现在,你已经了解了 Theano 的基础知识,让我们开始了解可用于创建表达式的不同数据类型。下表为你提供了 Theano 中定义的数据类型的部分列表。
Data type |
Theano type |
Byte |
bscalar、bvector、bmatrix、brow、bcol、btensor3、btensor4、btensor5、btensor6、btensor7 |
16-bit integers |
wscalar、wvector、wmatrix、wrow、wcol、wtensor3、wtensor4、wtensor5、wtensor6、wtensor7 |
32-bit integers |
iscalar、ivector、imatrix、irow、icol、itensor3、itensor4、itensor5、itensor6、itensor7 |
64-bit integers |
lscalar、lvector、lmatrix、lrow、lcol、ltensor3、ltensor4、ltensor5、ltensor6、ltensor7 |
float |
fscalar、fvector、fmatrix、frow、fcol、ftensor3、ftensor4、ftensor5、ftensor6、ftensor7 |
double |
dscalar、dvector、dmatrix、drow、dcol、dtensor3、dtensor4、dtensor5、dtensor6、dtensor7 |
complex |
cscalar、cvector、cmatrix、crow、ccol、ctensor3、ctensor4、ctensor5、ctensor6、ctensor7 |
以上列表不会穷尽,读者可参考张量创建文档获取完整列表。
接下来,我将提供一些在 Theano 中创建不同类型数据变量的示例。
One-dimensional Array
要创建一个一维数组,请使用以下声明 −
Theano - Variables
在前面的章节中,在讨论数据类型时,我们创建并使用了 Theano 变量。重申一下,我们使用以下语法在 Theano 中创建一个变量 −
x = theano.tensor.fvector('x')
在此语句中,我们创建了一个 x 类型的变量vector,其中包含 32 位浮点数。我们还将它命名为 x 。名称通常有助于调试。
要声明一个由 32 位整数组成的向量,可以使用以下语法 −
i32 = theano.tensor.ivector
在此,我们没有为变量指定名称。
要声明一个由 64 位浮点数组成的三维向量,可以使用以下声明 −
f64 = theano.tensor.dtensor3
不同类型的构造函数及其数据类型列在下面的表中 −
Constructor |
Data type |
Dimensions |
fvector |
float32 |
1 |
ivector |
int32 |
1 |
fscalar |
float32 |
0 |
fmatrix |
float32 |
2 |
ftensor3 |
float32 |
3 |
dtensor3 |
float64 |
3 |
您可以使用通用的向量构造函数,并通过以下方式明确指定数据类型 −
x = theano.tensor.vector ('x', dtype=int32)
在下一章中,我们将了解如何创建共享变量。
Theano - Shared Variables
很多时候,您需要创建在不同方法之间以及在对同一方法的多次调用之间共享的变量。举个例子,在神经网络训练期间,您会创建权重向量,用于为每个正在考虑的特征分配权重。在网络训练期间的每次迭代中都会修改此向量。因此,它必须在对同一方法的多次调用期间全局可访问。因此,我们为此创建一个共享变量。通常,Theano 将此类共享变量移动到 GPU(如果可用)。这会加快计算速度。
Theano - Functions
Theano function 充当与符号图进行交互的挂钩。符号图编译成高效率的执行代码。它通过重新构建数学方程来实现此目的,从而使它们更快。它将表达式的某些部分编译成 C 语言代码。它将某些张量移动到 GPU,依此类推。
现在将高效的编译代码作为输入提供给 Theano function 。当您执行 Theano function 时,它将计算结果分配给由我们指定的可变变量。优化的类型可以指定为 FAST_COMPILE 或 FAST_RUN。这在环境变量 THEANO_FLAGS 中指定。
Theano function 使用以下语法声明 −
f = theano.function ([x], y)
第一个参数 [x] 是输入变量的列表,第二个参数 y 是输出变量的列表。
现在已经了解 Theano 的基础知识,让我们从一个简单的示例开始 Theano 编码。
Theano - Trivial Training Example
Theano 在训练神经网络方面非常有用,在训练神经网络时,我们必须反复计算成本和梯度以实现最优。在大数据集上,这在计算上会很密集。由于 Theano 对我们前面看到的计算图进行了内部优化,因此它可以有效地执行此操作。
Problem Statement
接下来,我们将学习如何使用 Theano 库训练网络。我们将采用一个简单的案例,从一个四特征数据集开始。我们在对每个特征应用一定权重(重要性)后计算这些特征的总和。
训练的目标是修改分配给每个特征的权重,以便总和达到目标值 100。
sum = f1 * w1 + f2 * w2 + f3 * w3 + f4 * w4
其中 f1 、 f2 、……是特征值, w1 、 w2 、……是权重。
让我对示例进行量化以更好地理解问题陈述。我们将为每个特征假定一个初始值 1.0,我们将 w1 等于 0.1 、 w2 等于 0.25 、 w3 等于 0.15 , w4 等于 0.3 。分配权重值的逻辑并不确定,这只是我们的直觉。因此,初始总和如下 −
sum = 1.0 * 0.1 + 1.0 * 0.25 + 1.0 * 0.15 + 1.0 * 0.3
总和为 0.8 。现在,我们将继续修改权重分配,以便此总和接近 100。 0.8 的当前结果值远未达到我们期望的目标值 100。在机器学习术语中,我们将 cost 定义为目标值与当前输出值之间的差,通常平方以增大误差。我们通过计算梯度和更新权重向量在每次迭代中减少此成本。
让我们看看如何在 Theano 中实现这个整个逻辑。
Declaring Variables
我们首先声明我们的输入向量 x 如下 −
x = tensor.fvector('x')
其中 x 是浮点值的单维数组。
我们定义标量 target 变量,如下所示 −
target = tensor.fscalar('target')
接下来,我们使用上面讨论的初始值创建一个权重张量 W −
W = theano.shared(numpy.asarray([0.1, 0.25, 0.15, 0.3]), 'W')
Defining Theano Expression
我们现在使用以下表达式计算输出 −
y = (x * W).sum()
注意在上述声明中, x 和 W 是矢量,而不是简单的标量变量。我们现在使用以下表达式计算误差(成本):
cost = tensor.sqr(target - y)
成本是目标值与当前输出值之间的差值的平方。
为了计算梯度,它告诉我们距离目标有多远,我们使用内置 grad 方法,如下所示:
gradients = tensor.grad(cost, [W])
我们现在通过取 0.1 的学习率来更新 weights 矢量,如下所示:
W_updated = W - (0.1 * gradients[0])
接下来,我们需要使用以上的值更新权重矢量。我们在此声明中执行此操作:
updates = [(W, W_updated)]
Defining/Invoking Theano Function
最后,我们在Theano中定义 function 来计算总和。
f = function([x, target], y, updates=updates)
为了调用上述函数一定次数,我们创建 for 循环,如下所示:
for i in range(10):
output = f([1.0, 1.0, 1.0, 1.0], 100.0)
正如前面所述,该函数的输入是包含四种特征的初始值的一个矢量 - 我们将 1.0 的值分配给每个特征,没有任何特定原因。您可以分配您选择的不同值,并检查函数是否最终收敛。我们将在每次迭代中打印权重矢量的值和相应的输出。它显示在下面的代码中:
print ("iteration: ", i)
print ("Modified Weights: ", W.get_value())
print ("Output: ", output)
Full Program Listing
对于您的快速参考,这里再现了完整的程序清单:
from theano import *
import numpy
x = tensor.fvector('x')
target = tensor.fscalar('target')
W = theano.shared(numpy.asarray([0.1, 0.25, 0.15, 0.3]), 'W')
print ("Weights: ", W.get_value())
y = (x * W).sum()
cost = tensor.sqr(target - y)
gradients = tensor.grad(cost, [W])
W_updated = W - (0.1 * gradients[0])
updates = [(W, W_updated)]
f = function([x, target], y, updates=updates)
for i in range(10):
output = f([1.0, 1.0, 1.0, 1.0], 100.0)
print ("iteration: ", i)
print ("Modified Weights: ", W.get_value())
print ("Output: ", output)
当您运行该程序时,您将看到以下输出:
Weights: [0.1 0.25 0.15 0.3 ]
iteration: 0
Modified Weights: [19.94 20.09 19.99 20.14]
Output: 0.8
iteration: 1
Modified Weights: [23.908 24.058 23.958 24.108]
Output: 80.16000000000001
iteration: 2
Modified Weights: [24.7016 24.8516 24.7516 24.9016]
Output: 96.03200000000001
iteration: 3
Modified Weights: [24.86032 25.01032 24.91032 25.06032]
Output: 99.2064
iteration: 4
Modified Weights: [24.892064 25.042064 24.942064 25.092064]
Output: 99.84128
iteration: 5
Modified Weights: [24.8984128 25.0484128 24.9484128 25.0984128]
Output: 99.968256
iteration: 6
Modified Weights: [24.89968256 25.04968256 24.94968256 25.09968256]
Output: 99.9936512
iteration: 7
Modified Weights: [24.89993651 25.04993651 24.94993651 25.09993651]
Output: 99.99873024
iteration: 8
Modified Weights: [24.8999873 25.0499873 24.9499873 25.0999873]
Output: 99.99974604799999
iteration: 9
Modified Weights: [24.89999746 25.04999746 24.94999746 25.09999746]
Output: 99.99994920960002
观察到经过四次迭代后,结果是 99.96 ,而经过五次迭代后,结果是 99.99 ,接近我们的目标 100.0 。
根据所需的准确度,您可以安全地得出结论,即该网络在4到5次迭代中经过训练。训练完成后,查找权重矢量,经过5次迭代后,其取以下值:
iteration: 5
Modified Weights: [24.8984128 25.0484128 24.9484128 25.0984128]
你现在可以在你的网络中使用这些值,用于部署该模型。
Theano - Conclusion
机器学习模型构建涉及涉及张量的密集且重复的计算。这些需要密集的计算资源。由于常规模拟器可以在局部层面提供优化,因此通常不会生成快速执行的代码。
Theano 首先为整个计算构建一个计算图。由于在编译期间整个计算图像是可以作为一个单一图像提供的,因此在预编译期间可以应用几种优化技术,而这正是 Theano 所做的。它会重构计算图,部分将其转换为 C,将共享变量移动到 GPU,等等,以生成非常快的可执行代码。然后由 Theano function 执行编译的代码,该 function 仅仅充当将编译的代码注入运行时的工具。Theano 已经证明了自己的价值,并且在学术界和工业界都得到广泛接受。