Skip to content

Latest commit

 

History

History
29 lines (15 loc) · 3.7 KB

01~底层模拟人脑,算力决定上限.md

File metadata and controls

29 lines (15 loc) · 3.7 KB

原文地址

AI 十年展望(一):底层模拟人脑,算力决定上限

AI 技术中长期对社会的潜在影响深远,影响几乎所有行业。本文介绍了以深度学习为代表的人工智能理论的基本原理,并指出了由于目前的人工智能具备坚实的数学基础、神经学基础,未来随着底层算力的不断增长,人工智能影响边界将会不断扩宽,行业的发展潜力目前仍处在被市场低估状态。

摘要

AI 能够从底层模拟人脑主要工作机制,基于其理论的模型能够达到的智能水平上限较高。人的神经元近似一个基于阈值的二进制的逻辑门,与数字电路 0/1 的机制相似,深度学习能从底层上模拟人脑神经元工作机制,只要网络层数、神经元个数足够多,AI 将在某些维度接近甚至超过人脑智能。人工神经网络 4 大理论支柱为“阈值逻辑”、“Hebb 学习率”、“梯度下降”、“反向传播”,前 2 个理论解决了单个神经元层面的建模问题,后 2 个理论则解决了多层神经网络训练问题。2006 年 Hinton 首次实现了 5 层神经网络的训练,之后行业迎来爆发式发展,不断验证了该技术的潜力。

深度学习具备坚实的数学理论基础支撑。人脑绝大多数活动本质上都是广义计算问题,因此人脑其实是一个复杂的函数,深度学习就是去找到这个函数,万能近似定理则从数学上证明了一定条件下深度神经网络模型能够模拟任意的函数。

用于深度学习的算力以 6 年 30 万倍的速度增加,算力是核心瓶颈也是未来提升的关键。从进化角度看,人的智能是一个随着神经元数量提升,从量变到质变的过程,这个量变过程对应人工智能中模型所用算力的提升过程。目前能够实现的 AI 模型中不论从神经元个数还是连接数量看,与真实人类还有较大的差距,未来随着现有芯片技术的不断推进,和突破冯诺依曼架构的类脑芯片等新技术的发展,算力的持续突破将会不断释放人工智能技术的潜力。

全文概要

1、为什么说深度学习技术的潜在上限高?

因为深度学习从底层模拟人脑神经元的主要工作机制。智能很大程度是广义计算问题,人工神经网络尽管无法做到完全“复制”人脑,但已经能较好地模拟其主要底层机制,因为神经元可近似为基于阈值的二进制单元,类似数字电路 0/1 机制。

从生物进化的角度看,人的智能是量变到质变的过程。在完成单个神经元主要工作机制模型后,只要网络层数、神经元个数足够多,AI 将在某些维度接近甚至超过人脑智能。

此外,从数学角度,万能近似定理论证了深度学习有坚实的数学基础。该定理证明了深度学习数学模型能够以任意精度逼近任意的函数,而人的智能很大程度即广义计算问题,进而深度学习模型能够模拟人脑的绝大部分活动,具备很高的上限。

人工神经网络首先从单个神经元维度模拟的人脑主要机制

2、为什么直到近几年深度学习才爆发?

因为早期都是浅层神经网络,直到 2006 年才首次实现 5 层隐层网络的训练。2006 年 Hinton 首次把 ANN 提升到了 5 层,解决了深度神经网络的训练问题;2012 年 Hinton 在 ImageNet 挑战赛中引进深度学习算法,在随后几年内,深度学习成功地大幅降低了图片识别错误率,随后行业迎来爆发式发展,深度学习的商用进程得以加速。