Skip to content
Open
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
34 changes: 34 additions & 0 deletions 神经网络之我见---郭凯霖.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,34 @@
#神经网络
##神经网络是什么
###神经元
 神经网络是人工智能的基础,从生物的角度来说,人脑学习的基础是神经元,大量的神经元便组成了神经系统,从而帮助人类学习、做出反应等,人工智能作为使用电脑模仿人脑学习的技术,也需要有类似的东西,神经元(感知器)的网状结构即神经网络。

![](https://s3.bmp.ovh/imgs/2022/04/15/5505a606501298a1.jpg)

 上图是一个简单的神经元细胞,用数学方式来的话,即
 ![](https://s3.bmp.ovh/imgs/2022/04/15/7d1f7ec9166e0a26.png)
 其中,对于来自其他神经元的输入信号X1,X2,X3,神经元将其乘以权重W1,W2,W3作为输入信号。θ是该神经元固有的阈值,此处可以从生物学的角度理解,只有当输入信号对于阈值,神经元才能做出反应(即有输出信号,y=1),否则没有反应(即没有输出信号,y=0)。
 ![](https://s3.bmp.ovh/imgs/2022/04/15/d2a24aeb73363a4a.jpg)
 从数学的角度出发,以上的过程可以用该公式表达出来,即
  __y = (w1x1 + w2x2 + w3x3 - θ)__
 或者__y = a(w1x1 + w2x2 + w3x3 + b)__
 在该公式中,a是一个函数,是建模者定义的函数,称为__激活函数__(activation function),x1、x2、x3是模型允许的任意数值,w1、w2、w3是不同或相同的权重,b= - θ,为了方便计算,将负改为正,称作__偏置__(bias)
###神经网络
 正如上述,神经网络是由若干神经元组成的,神经元连接为网络状,就形成了神经网络。这里以阶层型神经网络为例进行说明,即
![](https://s3.bmp.ovh/imgs/2022/04/15/294ccbb48a3cc36e.jpg)
 如图所示,阶层型神经网络由输入层、隐藏层、输出层组成,其中隐藏层也被称为中间层,每一层都由若干神经元组成,层与层之间存在一定的关系。
 输入层——读取给予神经网络的信息;
 隐藏层——执行在神经元讲解部分提到的工作,即 ![](https://s3.bmp.ovh/imgs/2022/04/15/7d1f7ec9166e0a26.png)
 输出层——执行像隐藏层一样的工作,并显示最后的结果。

 __以下举一个神经网络识别数字0和1的例子__
 即使是在4 x 3像素的图像中,数字0的呈现模式也是可以多种多样的,例如
![](https://s3.bmp.ovh/imgs/2022/04/15/28ca3e775d1634da.jpg)
 回顾刚刚提到的输入层、隐藏层、输出层的工作,在这个案例中,他们的工作会是什么样的?
 输入层——读取每一个格子的信息(黑或白);
 隐藏层——将输入层传递过来的信息进行加权处理;
 输出层——将隐藏层传递过来的信息进行加权处理,显示最后结果(0或1)。
![](https://s3.bmp.ovh/imgs/2022/04/15/c4ef2d5ad996a946.jpg)
 其中可发现,
 输入层->隐藏层,4、6、7、9被着重强调了,此处可以理解为,隐藏层的A对输入层的4和7有偏好,隐藏层的C对输入层的6和9有偏好,这一种偏好会放大数值,因此,对于隐藏层中的A而言,因为4和7为黑色,所以A也为黑色,对于隐藏层中的B而言,B与1、2、3、...、12没有偏好或偏好得不到满足,B为白色,对于隐藏层中的C而言,因为6和9为黑色,所以C也为黑色;在隐藏层中,A、C被着重强调了,这是因为WA、WC的大小大于其他的(权重),因此导致A、C的输出值偏大。
 隐藏层->输出层,A和C被着重强调了,同理,输出层的0对隐藏层的A和C有偏好,因此,输出层的0由于有对隐藏层A和C的偏好,导致输出层的0比输出层的1的数值更大,最后识别为数字0。