Tensorflow 简明教程
TensorFlow - Convolutional Neural Networks
在了解机器学习概念后,我们现在可以将重点转移到深度学习概念中。深度学习是机器学习的一部分内容,被认为是研究人员在近几十年中迈出的关键一步。深度学习实施的示例包括图像识别和语音识别的应用。
以下是两种重要的深度神经网络类型 -
-
Convolutional Neural Networks
-
Recurrent Neural Networks
在本章中,我们将重点关注 CNN,也就是卷积神经网络。
Convolutional Neural Networks
卷积神经网络设计用于通过多个数组层处理数据。此类神经网络用于图像识别或面部识别等应用。CNN 和任何其他普通神经网络的主要区别在于,CNN 将输入作为二维数组,并且直接在图像上进行操作,而不是专注于其他神经网络关注的特征提取。
CNN 的优势方法包括解决识别问题。诸如 Google 和 Facebook 等顶级公司已投资于识别项目的研发中,以更快的速度完成活动。
卷积神经网络采用了三个基本思想 -
-
Local respective fields
-
Convolution
-
Pooling
让我们详细理解这些想法。
CNN 利用输入数据内存在的空间关联。神经网络的每个并发层都会连接一些输入神经元。这个特定区域被称为局部感受视野。局部感受视野专注于隐藏神经元。隐藏神经元在提到的视野内处理输入数据,而不了解超出特定边界的变化。
以下是有关生成局部感受视野的图表表示 −
如果观察上面的表示,每个连接都会学习一个隐藏神经元的权重,该权重与从一层到另一层的移动相关。在这里,单个神经元会不时地进行移动。这个过程称为“卷积”。
从输入层到隐含特征图的连接映射被定义为“共享权重”,而包含的偏差被称为“共享偏差”。
CNN 或卷积神经网络使用池化层,这些层是紧接 CNN 声明之后放置的层。它将用户输入作为来自卷积网络的特征图,并准备一个浓缩特征图。池化层有助于创建包含前一层神经元的层。
TensorFlow Implementation of CNN
在本节中,我们将了解 TensorFlow 的 CNN 实现。要求整个网络执行和适当尺寸的步骤如下所示:
Step 1 − 包括 TensorFlow 和数据集模块的必要模块,这些模块需要计算 CNN 模型。
import tensorflow as tf
import numpy as np
from tensorflow.examples.tutorials.mnist import input_data
Step 2 − 声明一个名为 run_cnn() 的函数,其中包含各种参数和优化变量以及数据占位符的声明。这些优化变量将声明训练模式。
def run_cnn():
mnist = input_data.read_data_sets("MNIST_data/", one_hot = True)
learning_rate = 0.0001
epochs = 10
batch_size = 50
Step 3 − 在此步骤中,我们将声明具有输入参数的训练数据占位符 - 28 x 28 像素 = 784。这是来自 mnist.train.nextbatch() 的扁平化图像数据。
我们可以根据需要对张量进行整形。第一个值 (-1) 告诉函数根据传递给它的数据量动态整形该维度。中间两个维度设置为图像大小(即 28 x 28)。
x = tf.placeholder(tf.float32, [None, 784])
x_shaped = tf.reshape(x, [-1, 28, 28, 1])
y = tf.placeholder(tf.float32, [None, 10])
Step 4 − 现在,创建一些卷积层非常重要 −
layer1 = create_new_conv_layer(x_shaped, 1, 32, [5, 5], [2, 2], name = 'layer1')
layer2 = create_new_conv_layer(layer1, 32, 64, [5, 5], [2, 2], name = 'layer2')
Step 5 − 在具有 28 x 28 维度的两层步长 2 池化后,让我们压平输出,使其准备好进行完全连接的输出阶段,使其变为 14 x 14 或至少 7 x 7 x,y 坐标,但具有 64 个输出通道。为了使用“密集”层创建完全连接,新形状需要为 [-1, 7 x 7 x 64]。我们可以为此层设置一些权重和偏差值,然后使用 ReLU 激活。
flattened = tf.reshape(layer2, [-1, 7 * 7 * 64])
wd1 = tf.Variable(tf.truncated_normal([7 * 7 * 64, 1000], stddev = 0.03), name = 'wd1')
bd1 = tf.Variable(tf.truncated_normal([1000], stddev = 0.01), name = 'bd1')
dense_layer1 = tf.matmul(flattened, wd1) + bd1
dense_layer1 = tf.nn.relu(dense_layer1)
Step 6 − 具有特定 softmax 激活的另一层,带有所需的优化器定义了准确性评估,它会设置初始化运算符。
wd2 = tf.Variable(tf.truncated_normal([1000, 10], stddev = 0.03), name = 'wd2')
bd2 = tf.Variable(tf.truncated_normal([10], stddev = 0.01), name = 'bd2')
dense_layer2 = tf.matmul(dense_layer1, wd2) + bd2
y_ = tf.nn.softmax(dense_layer2)
cross_entropy = tf.reduce_mean(
tf.nn.softmax_cross_entropy_with_logits(logits = dense_layer2, labels = y))
optimiser = tf.train.AdamOptimizer(learning_rate = learning_rate).minimize(cross_entropy)
correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
init_op = tf.global_variables_initializer()
Step 7 − 我们应该设置记录变量。这会添加一个摘要来存储数据的准确性。
tf.summary.scalar('accuracy', accuracy)
merged = tf.summary.merge_all()
writer = tf.summary.FileWriter('E:\TensorFlowProject')
with tf.Session() as sess:
sess.run(init_op)
total_batch = int(len(mnist.train.labels) / batch_size)
for epoch in range(epochs):
avg_cost = 0
for i in range(total_batch):
batch_x, batch_y = mnist.train.next_batch(batch_size = batch_size)
_, c = sess.run([optimiser, cross_entropy], feed_dict = {
x:batch_x, y: batch_y})
avg_cost += c / total_batch
test_acc = sess.run(accuracy, feed_dict = {x: mnist.test.images, y:
mnist.test.labels})
summary = sess.run(merged, feed_dict = {x: mnist.test.images, y:
mnist.test.labels})
writer.add_summary(summary, epoch)
print("\nTraining complete!")
writer.add_graph(sess.graph)
print(sess.run(accuracy, feed_dict = {x: mnist.test.images, y:
mnist.test.labels}))
def create_new_conv_layer(
input_data, num_input_channels, num_filters,filter_shape, pool_shape, name):
conv_filt_shape = [
filter_shape[0], filter_shape[1], num_input_channels, num_filters]
weights = tf.Variable(
tf.truncated_normal(conv_filt_shape, stddev = 0.03), name = name+'_W')
bias = tf.Variable(tf.truncated_normal([num_filters]), name = name+'_b')
#Out layer defines the output
out_layer =
tf.nn.conv2d(input_data, weights, [1, 1, 1, 1], padding = 'SAME')
out_layer += bias
out_layer = tf.nn.relu(out_layer)
ksize = [1, pool_shape[0], pool_shape[1], 1]
strides = [1, 2, 2, 1]
out_layer = tf.nn.max_pool(
out_layer, ksize = ksize, strides = strides, padding = 'SAME')
return out_layer
if __name__ == "__main__":
run_cnn()
以下是以上代码生成的输出 −
See @{tf.nn.softmax_cross_entropy_with_logits_v2}.
2018-09-19 17:22:58.802268: I
T:\src\github\tensorflow\tensorflow\core\platform\cpu_feature_guard.cc:140]
Your CPU supports instructions that this TensorFlow binary was not compiled to
use: AVX2
2018-09-19 17:25:41.522845: W
T:\src\github\tensorflow\tensorflow\core\framework\allocator.cc:101] Allocation
of 1003520000 exceeds 10% of system memory.
2018-09-19 17:25:44.630941: W
T:\src\github\tensorflow\tensorflow\core\framework\allocator.cc:101] Allocation
of 501760000 exceeds 10% of system memory.
Epoch: 1 cost = 0.676 test accuracy: 0.940
2018-09-19 17:26:51.987554: W
T:\src\github\tensorflow\tensorflow\core\framework\allocator.cc:101] Allocation
of 1003520000 exceeds 10% of system memory.