在本章中,我们将了解 TensorFlow 框架可以实现的神经网络训练的各个方面。
Back Propagation
反向传播是一种计算偏导数的简单方法,包括最适合神经网络的基本构成形式。
Stochastic Gradient Descent
在随机梯度下降中, batch 是示例的总数,用户使用该示例在单个迭代中计算梯度。到目前为止,假定批次是整个数据集。最好的说明是在 Google 规模上工作;数据集通常包含数十亿甚至数百亿个示例。
Learning Rate Decay
采用学习率是梯度下降优化最重要的特性之一。这对于 TensorFlow 实现至关重要。
Dropout
具有大量参数的深度神经网络构成了强大的机器学习系统。然而,过拟合是此类网络中的一个严重问题。
Max Pooling
最大池化是一种基于样本的离散化过程。目的是对输入表示进行下采样,从而通过所需的假设来减小维度。
Long Short Term Memory (LSTM)
LSTM 控制关于在指定的神经元中应采用哪些输入的决策。它包括控制决定应该计算什么以及应该生成什么输出。