Artificial Neural Network 简明教程
Artificial Neural Network - Building Blocks
ANN 的处理取决于以下三个组成部分 -
-
Network Topology
-
权重或学习的调整
-
Activation Functions
在本章中,我们将详细讨论人工神经网络的这三个组成部分
Network Topology
网络拓扑是网络及其节点和连接线的排列。根据拓扑结构,人工神经网络可分类为以下几种:
Adjustments of Weights or Learning
在人工神经网络中学习是修改指定网络中神经元之间连接权重的方法。人工神经网络学习可以分为三大类,即监督学习、无监督学习和强化学习。
Supervised Learning
顾名思义,此类学习是在老师的监督下进行的。这一学习过程是依赖的。
在有监督学习下的人工神经网络训练期间,输入向量将呈现给网络,这将产生一个输出向量。该输出向量将与期望输出向量进行比较。如果实际输出和期望输出向量之间有差异,则会生成一个误差信号。在此误差信号的基础上,将调整权重,直到实际输出与期望输出匹配。
Activation Functions
可以将它定义为施加在输入上的额外力或努力,以获得精确的输出。在人工神经网络中,我们还可以在输入上应用激活函数以获得精确的输出。以下是一些有趣的激活函数:
Sigmoid Activation Function
它有两种类型,如下所示 -
-
Binary sigmoidal function - 此激活函数执行 0 和 1 之间的输入编辑。它本质上是正面的。它总是受限制的,这意味着它的输出不可能小于 0,且不可能大于 1。它的本质也严格递增,这意味着输入越大输出就越高。它可以定义为 F(x)\:=\:sigm(x)\:=\:\frac{1}{1\:+\:exp(-x)}
-
Bipolar sigmoidal function - 此激活函数执行 -1 和 1 之间的输入编辑。它本质上可以为正或为负。它总是受限制的,这意味着它的输出不可能小于 -1,且不可能大于 1。它的本质也严格递增,如同 sigmoid 函数。它可以定义为 F(x)\:=\:sigm(x)\:=\:\frac{2}{1\:+\:exp(-x)}\:-\:1\:=\:\frac{1\:-\:exp(x)}{1\:+\:exp(x)}