Keras 简明教程
Keras - Modules
正如我们先前了解的,Keras 模块包含预定义的类、函数和变量,它们对深度学习算法非常有用。让我们在本节中了解 Keras 提供的模块。
Available modules
让我们首先查看 Keras 中可用模块的列表。
-
Initializers − 提供初始化器函数的列表。我们可以在 Keras 层章节中详细了解它。在机器学习的模型创建阶段。
-
Regularizers − 提供正则化器函数的列表。我们可以在 Keras 层章节中详细了解它。
-
Constraints − 提供约束函数的列表。我们可以在 Keras 层章节中详细了解它。
-
Activations − 提供激活函数列表。我们可以在 Keras 层章节中详细了解它。
-
Losses − 提供损失函数列表。我们可以在模型训练章节中详细了解它。
-
Metrics − 提供度量函数列表。我们可以在模型训练章节中详细了解它。
-
Optimizers − 提供优化器函数列表。我们可以在模型训练章节中详细了解它。
-
Callback − 提供回调函数列表。我们可以在训练过程中使用它来打印中间数据,并根据某些条件停止训练本身( EarlyStopping 方法)。
-
Text processing − 提供将文本转换为适合机器学习的 NumPy 数组的函数。我们可以在机器学习的数据准备阶段使用它。
-
Image processing − 提供将图像转换为适合机器学习的 NumPy 数组的函数。我们可以在机器学习的数据准备阶段使用它。
-
Sequence processing − 提供从给定输入数据生成基于时间的函数数据。我们可以在机器学习的数据准备阶段使用它。
-
Backend − 提供后台库函数,如 TensorFlow 和 Theano。
-
Utilities − 提供大量深度学习中有用的实用程序函数。
让我们在本节中了解 backend 模块和 utils 模型。
backend module
backend module 用于 keras 后台操作。默认情况下,keras 在 TensorFlow 后台上运行。如果您愿意,您可以切换到其他后端,如 Theano 或 CNTK。Deufalt 后台配置在您的根目录下的 .keras/keras.json 文件中定义。
可以使用以下代码导入 Keras 后台模块
>>> from keras import backend as k
如果我们使用默认后端 TensorFlow,那么以下函数将返回如下指定的基于 TensorFlow 的信息 −
>>> k.backend()
'tensorflow'
>>> k.epsilon()
1e-07
>>> k.image_data_format()
'channels_last'
>>> k.floatx()
'float32'
让我们简要了解一些用于数据分析的重要后台函数 −
reset_uids
它用于重置 uid 值。
>>> k.reset_uids()
现在,再次执行 get_uid()。这将被重置,并再次变为 1。
>>> k.get_uid(prefix='')
1
placeholder
用于实例化占位符张量。简单的占位符以保存 3D 形状的示例如下 −
>>> data = k.placeholder(shape = (1,3,3))
>>> data
<tf.Tensor 'Placeholder_9:0' shape = (1, 3, 3) dtype = float32>
If you use int_shape(), it will show the shape.
>>> k.int_shape(data) (1, 3, 3)
dot
它用于将两个张量相乘。考虑 a 和 b 是两个张量,而 c 将是 ab 乘法的结果。假定 a 的形状是 (4,2),而 b 的形状是 (2,3)。它在下面定义,
>>> a = k.placeholder(shape = (4,2))
>>> b = k.placeholder(shape = (2,3))
>>> c = k.dot(a,b)
>>> c
<tf.Tensor 'MatMul_3:0' shape = (4, 3) dtype = float32>
>>>
ones
它用于将所有内容初始化为 one 值。
>>> res = k.ones(shape = (2,2))
#print the value
>>> k.eval(res)
array([[1., 1.], [1., 1.]], dtype = float32)
batch_dot
它用于对批次中的两个数据执行乘积。输入维度必须为 2 或更高。如下所示:
>>> a_batch = k.ones(shape = (2,3))
>>> b_batch = k.ones(shape = (3,2))
>>> c_batch = k.batch_dot(a_batch,b_batch)
>>> c_batch
<tf.Tensor 'ExpandDims:0' shape = (2, 1) dtype = float32>
variable
它用于初始化变量。让我们在这个变量中执行简单的转置操作。
>>> data = k.variable([[10,20,30,40],[50,60,70,80]])
#variable initialized here
>>> result = k.transpose(data)
>>> print(result)
Tensor("transpose_6:0", shape = (4, 2), dtype = float32)
>>> print(k.eval(result))
[[10. 50.]
[20. 60.]
[30. 70.]
[40. 80.]]
如果你希望从 numpy 访问:
>>> data = np.array([[10,20,30,40],[50,60,70,80]])
>>> print(np.transpose(data))
[[10 50]
[20 60]
[30 70]
[40 80]]
>>> res = k.variable(value = data)
>>> print(res)
<tf.Variable 'Variable_7:0' shape = (2, 4) dtype = float32_ref>
is_sparse(tensor)
它用于检查张量是否是稀疏张量。
>>> a = k.placeholder((2, 2), sparse=True)
>>> print(a) SparseTensor(indices =
Tensor("Placeholder_8:0",
shape = (?, 2), dtype = int64),
values = Tensor("Placeholder_7:0", shape = (?,),
dtype = float32), dense_shape = Tensor("Const:0", shape = (2,), dtype = int64))
>>> print(k.is_sparse(a)) True
to_dense()
它用于将稀疏张量转换为稠密张量。
>>> b = k.to_dense(a)
>>> print(b) Tensor("SparseToDense:0", shape = (2, 2), dtype = float32)
>>> print(k.is_sparse(b)) False
random_uniform_variable
它用于在 uniform distribution 概念下初始化。
k.random_uniform_variable(shape, mean, scale)
在此,
-
shape - 以元组形式表示行和列。
-
mean - 均匀分布的均值。
-
scale - 均匀分布的标准差。
让我们看一下下面的示例用法:
>>> a = k.random_uniform_variable(shape = (2, 3), low=0, high = 1)
>>> b = k. random_uniform_variable(shape = (3,2), low = 0, high = 1)
>>> c = k.dot(a, b)
>>> k.int_shape(c)
(2, 2)
utils module
utils 提供了深度学习的有用实用程序函数。 utils 模块提供的一些方法如下:
HDF5Matrix
它用于以 HDF5 格式表示输入数据。
from keras.utils import HDF5Matrix data = HDF5Matrix('data.hdf5', 'data')
to_categorical
它用于将类别向量转换为二进制类别矩阵。
>>> from keras.utils import to_categorical
>>> labels = [0, 1, 2, 3, 4, 5, 6, 7, 8, 9]
>>> to_categorical(labels)
array([[1., 0., 0., 0., 0., 0., 0., 0., 0., 0.],
[0., 1., 0., 0., 0., 0., 0., 0., 0., 0.],
[0., 0., 1., 0., 0., 0., 0., 0., 0., 0.],
[0., 0., 0., 1., 0., 0., 0., 0., 0., 0.],
[0., 0., 0., 0., 1., 0., 0., 0., 0., 0.],
[0., 0., 0., 0., 0., 1., 0., 0., 0., 0.],
[0., 0., 0., 0., 0., 0., 1., 0., 0., 0.],
[0., 0., 0., 0., 0., 0., 0., 1., 0., 0.],
[0., 0., 0., 0., 0., 0., 0., 0., 1., 0.],
[0., 0., 0., 0., 0., 0., 0., 0., 0., 1.]], dtype = float32)
>>> from keras.utils import normalize
>>> normalize([1, 2, 3, 4, 5])
array([[0.13483997, 0.26967994, 0.40451992, 0.53935989, 0.67419986]])