Tensorflow 简明教程
TensorFlow - Optimizers
优化器是扩展类,其中包括用于训练特定模型的附加信息。优化器类使用给定的参数进行初始化,但重要的是要记住不需要张量。优化器用于提高训练特定模型的速度和性能。
TensorFlow 的基本优化器是-
tf.train.Optimizer
此类在 tensorflow/python/training/optimizer.py 的指定路径中定义。
以下是 Tensorflow 中的一些优化器-
-
Stochastic Gradient descent
-
梯度裁剪的随机梯度下降
-
Momentum
-
Nesterov momentum
-
Adagrad
-
Adadelta
-
RMSProp
-
Adam
-
Adamax
-
SMORMS3
我们将专注于随机梯度下降。为其创建优化器的说明如下:
def sgd(cost, params, lr = np.float32(0.01)):
g_params = tf.gradients(cost, params)
updates = []
for param, g_param in zip(params, g_params):
updates.append(param.assign(param - lr*g_param))
return updates
基本参数在特定函数内定义。在随后的章节中,我们将专注于具有优化器实现的梯度下降优化。