DNN的基本结构-cnn rnn dnn 区别

2023-08-23 01:49:46

 

上次讲了DNN的感知机,今天我们来学习一下DNN的基本结构。

DNN的基本结构

神经网络是基于感知机的扩展,而DNN可以理解为有很多隐藏层的神经网络。

多层神经网络和深度神经网络DNN其实也是指纸的一个东西,DNN有时也叫做多层感知机(Multi-layer perceptron,MKP)。

DNN按不同位置划分,DNN内部的神经网络层可以分为三类,输入层,隐藏层和输出层。

如下图,

第一层是输入层,最后一层是输出层,中间的都是隐藏层。

层与层之间是全连接的,也就说,第i层的任意一个神经元一定与第i + 1层的任意一个神经元相连。

虽然DNN看起来很复杂,但是从小的局部模型来说,还是和感知机一样,即一个线性关系。

这里最后一个sigma函数是激活函数。

参数定义

由于DNN层数多,我们的线性关系系数w和偏倚b的数量也就很多了。具体的参数在DNN中如何定义的呢?

线性参数W的定义

以下图为例。

这个图是一个3层的DNN。第二层的4个神经元到第3层的第2个神经元的线性关系定义为

上标3代表线性系数w所在的层数,而下标对应的是输出的第3层索引2和输入的第2层索引4。你可能会问,为什么不是

这主要是为了便于模型用于矩阵运算。

如果是

而每次进行矩阵运算时

需要进行转置。 将输出索引放在前面的话,则线性运算不用转置。即直接为wx+b。

第l-1层的第k个神经元到第l层的第j个神经元的线性系数定义为

注意,输入层是没有w参数的。


以上就是关于《DNN的基本结构-cnn rnn dnn 区别》的全部内容,本文网址:https://www.7ca.cn/baike/70297.shtml,如对您有帮助可以分享给好友,谢谢。
标签:
声明

排行榜