Tensorflow 简明教程

Recommendations for Neural Network Training

在本章中,我们将了解 TensorFlow 框架可以实现的神经网络训练的各个方面。

以下是可以评估的十条建议−

Back Propagation

反向传播是一种计算偏导数的简单方法,包括最适合神经网络的基本构成形式。

back propagation

Stochastic Gradient Descent

在随机梯度下降中, batch 是示例的总数,用户使用该示例在单个迭代中计算梯度。到目前为止,假定批次是整个数据集。最好的说明是在 Google 规模上工作;数据集通常包含数十亿甚至数百亿个示例。

stochastic gradient descent

Learning Rate Decay

learning rate decay

采用学习率是梯度下降优化最重要的特性之一。这对于 TensorFlow 实现至关重要。

Dropout

具有大量参数的深度神经网络构成了强大的机器学习系统。然而,过拟合是此类网络中的一个严重问题。

dropout

Max Pooling

最大池化是一种基于样本的离散化过程。目的是对输入表示进行下采样,从而通过所需的假设来减小维度。

max pooling

Long Short Term Memory (LSTM)

LSTM 控制关于在指定的神经元中应采用哪些输入的决策。它包括控制决定应该计算什么以及应该生成什么输出。

long short term memory