大家好,今天小编关注到一个比较有意思的话题,就是关于神经网络系统作用与功能的问题,于是小编就整理了1个相关介绍神经网络系统作用与功能的解答,让我们一起看看吧。
人工神经网络的本质(物理或数学意义)是什么?
从数学的角度讲,人工神经网络的本质从机器学习的过程可理解为通过参数求最佳解得过程。同样也是一个负反馈的过程,以最简单的负反馈神经网络bp神经网络(back propagation)为例,其本质可以形象的理解为这样一个过程:
我们假设这个刚搭建的好的机器人叫“小明”(假设他刚出生),他的硬件软件等我们不需要考虑的部分全部是最先进的,小明的大脑里现在是最纯净的,除了一个学习的算法什么都没有,就像一个刚出生的婴儿一样。
现在,小明饿了,想吃东西。那么如何才能吃到东西呢?在什么都不知道的情况下,小明开始探索如何才能不饿。他可能会伸手,或者笑、哭,于是母亲喂了他吃的,从逻辑上可以这么理解:
然后他每次饿了,都开始伸手-笑-哭,然后就有吃的了。突然,有一天他自己也不知道怎么搞的,直接哭了。然后---有吃的了!!!这时他才明白这一个逻辑:
这时候,机器人“小明“明白,其实达到一个目的很简单,但是需要不断尝试。
再后来,小明又饿了,这回他懒得动,稍微小哭了一下等吃的,结果妈妈没来喂他!这是为啥?然后他就哭的超级大声,妈妈看他这样子以为是病了,急冲冲的送她去诊所,结果啥病也没有,小明迷惑,这是为什么?逻辑可以这么理解:
然后他把哭声再稍微降低以点,变成了很正常的哭,这时妈妈终于恍然大悟,喂他吃的。小明终于明白,想吃东西,首先需要哭,然后若哭声小,不起作用,需要调大哭声,若哭声过大,会起反作用,需要把哭声再降小一点,就有吃的了。
以上就是人工神经网络的本质,通过不断尝试引入各种参量,最终得到允许误差范围内的解,并通过引入参量系数,最终得到最优解——喂食=哭。通过负反馈机制,当参量所占权重过小,以当前参量所得结果为参考依据适当增加参量权重比例,增加的比例的系数随机。通过第二次的结果和第一次的结果选择更合适的权重系数,最后经过不断的“尝试“得到最优解。
以上过程即是bp负反馈神经网络的算法思想。
看了几个回答,都不错,不过问题问的是“数学本质”,我觉得回答们似乎都太“技术性”了。
Deep Learning 的数学本质在我看来异常简单,就是两个基本的数学问题:找特征,求极值。
这个“特征”就是数学里常说的特征值,特征方程,特征向量… 都一样,一般来说“特征”就是反映一种函数的“不变性”。
最简单的,一张照片里光线好不好?有没有明显的边界?前者可以定义一个特征值:亮度的均值。后者可以定义另一个特征值:梯度。
以往传统的机器学习理论,这样的特征需要算法设计者去“想出来”,这就像解几何题,你得想出怎么画辅助线。想不出来,你就解不出题。
不幸的是大量人工智能实际场景里,最顶尖的算法设计师也常常束手无策。这就是深度神经网络理论的一个出发点:为什么要人去找特征?为什么不用算法自己去找?
这是一个重大的理论突破,类比于笛卡尔发明解析几何:从此不再需要“辅助线”,彻底代数化。
那么面对那么多种可能的特征函数,那么多种可能参数选择,机器怎么选择呢?这就是第二个问题:求极值。
这也是个异常基础的数学问题:极值点就是(偏)导数=0。
只不过人工智能场景里函数变量常常以百万计,所以有很多“技术性问题”需要优化。比如梯度下降法等。
所以总结一下,深度神经网络就是一个“自动的特征提取器”,其数学本质只涉及两点:
- 特征函数,CNN里采用统一的卷积形式(为什么?因为简单啊,而且对应的数学工具多)。
- 求极值:就是逼近/找到(偏)导数=0的参数向量。
可以这么理解,神经网络是一个超高维度的通过激励函数不断逼近的过程,可以理解为超高维度的曲线的拟合,其还是拓扑线性空间到拓扑线性空间的映射,是高次的泛函,所以本质上属于泛函方法
神经网络本质是一个程序或运算,其结构特征决定其是对某问题或系统的高效表示,所以我认为神经网络有其一般物理基础而并非仅对人脑的模拟。类似的物理系统是描述多体量子态的tensor network。可认为一般的对象都可由一个程序高效生成,如一幅图像,这个生成程序就可表达为一个神经网络。所以对象和网络结构有对应性。自然世界由那些可用深度网络表达的对象构成,而不可表达的对象在自然界出现的概率极小
到此,以上就是小编对于神经网络系统作用与功能的问题就介绍到这了,希望介绍关于神经网络系统作用与功能的1点解答对大家有用。