1.神经网络是分布的,一般分为输入层,隐藏层,输出层。每层有多个神经元,隐藏层可以有很多层。
2.激活函数F。神经元的输入X权重,然后再加上偏差值。其得到的结果做为激活函数的参数,最总的结果就是神经元的输出。
3.常见的激活函数是S型的,或者是线性的。其中最常用的是S型的。它看起来就是一个Y(-1,1)中心对称的一个函数曲线。逼近但不相交。
4.如果我们知道想要的输出,则这种神经网络的学习算法称为监督学习。
5.在学习的过程中,输入模式被赋网络的输入层,最初所有权重被设为随机数,发送到网络中检查输出的结果。如果结果是错误的,就重新调整权重带到正确的输出(迭代过程),这个算法被称为反向传播。
1.深度学习的神经网络与经典的神经网络具有相同的背景,他们最主要的区别在于输入层。
1)经典的神经网络需要提供具体的特征作为输入层。例如面积,周长,行数等。
2)深度学习中就不必探索特征是什么,直接用整个图像作为输入。深度神经网络(DNN)可以自己检测并识别特征。
2.卷积层。就是一个卷积运算,应用于整个前一层,为我们提供了一个新的过滤对象。
1)卷积层中可以定义不同的参数,例如卷积核的数量,图像尺寸。
2)这些参数就像神经网络中的权重一样。它可以标记图像中提取最重要的特征。
3)假如一个100X100的图像,在深度学习中,通常一开始的卷积层就有3X3大小的64个卷积核。这就会生成100X100X64个神经元,以及3X3