利用神经科学突破AI瓶颈,先天结构或成重点方向

1950年,在一篇引领人工智能(AI)探索的开创性论文的第一行,数学家阿兰·图灵提出了一个问题:“机器能思考吗?”。

当时,已知的唯一可以进行复杂计算的系统是生物神经系统。 因此,人工智能新兴领域的科学家转而将大脑回路作为指引源泉,也就不足为奇了。

神经科学的两大应用:深度神经网络与强化学习

自从开展通过类大脑回路进行智能计算的早期尝试以来,科学家们就选择了一条路径,即模拟皮质电路的高度简化方法,它近来也取得了非凡的成功。

这一路径的基本形态被称为“深度神经网络”(或深网)架构,这个受大脑的启发而形成的模型由连续的神经元样元素层构建而成,通过被称为“突触”(根据生物学中的“神经突触”命名)的可调整性权重相互连接。

深度神经网络及其相关方法在人工智能系统中的应用具有变革性的意义。事实证明,它们优于人工智能研究核心领域之前所有已知的方法,包括计算机视觉、语音识别和制作以及复杂游戏。这些方法已经在包括计算机视觉和语音与文本翻译等领域广泛应用,其他许多领域也在不断朝着这个方向努力。

大脑回路的其他方面能为引领网络模型向着认知和通用人工智能更为广阔的方向发展提供思路,我将在本文中介绍这一点。

深度神经网络中的关键问题是学习,即通过突触的调整来生成符合输入模式所需的输出信息。 

突触的调整是基于一组训练样本自动执行的,这些训练样本由输入模型与其所需输出信息得出。 然后,学习的过程会调整权重以产生符合训练输入模式的期望输出信息。成功的学习能让神经网络不仅限于记忆训练样本,还能让它学会归纳,并为学习过程中未遇到的新输入模式提供正确的输出信息。

深度神经网络模型与经验生理性和功能性磁共振以及行为数据的比较显示,大脑与新模型之间一些有趣的相似之处及不同之处(见下图)。在与灵长类动物视觉系统的比较中发现,早期的生理和模型反应的相似性要高于后期的神经元反应,这表明与后期更偏认知的阶段相比,深度神经网络模型对早期的处理阶段的捕获更好。

除了深度神经网络之外,人工智能模型近来还融入了类大脑计算的另一个主要方面:强化学习(RL)的应用。

在强化学习的过程中,大脑中的奖励信号被用来修正行为。这种学习形式涉及到的大脑机制已得到广泛研究,且相关计算模型已用于人工智能领域,特别是机器人应用方面。

强化学习应用的场景是:一个主体(人、动物或机器人)在真实世界中产生行为,并以获得奖励信号作为回报。整个过程的目标是学会最佳“策略”,即由状态到行为的映射,以便让随时间而获得的奖励的总体度量最大化。

强化学习的方法在最新的人工智能算法中已经与深度神经网络方法相融合,尤其应用于游戏领域,从流行的视频游戏到包括国际象棋、围棋和将棋在内的高度复杂游戏中都有所体现。

深度神经网络与强化学习的融合在游戏领域产生了惊人的效果,两者结合产生的围棋机器人不仅击败了世界顶级围棋选手,而且仅仅通过学习游戏规则,以及从自己与自己对抗的游戏中学习,便在训练约4小时后达到国际象棋的世界冠军级别水准。

从利用神经科学指导人工智能的角度来看,这一成就令人惊讶,因为与大脑皮质回路相比,网络模型的形式是高度简化的。

除此之外,大脑应用的一些其他方面也已被纳入深度神经网络模型范围内,比如,神经元组之间的标准化和空间注意的使用。

在这里给大家推荐一个python系统学习q群:250933691有免费开发工具以及初学资料,(数据分析,爬虫,AI,  机器学习,神经网络)每天有老师给大家免费授课,欢迎一起交流学习

现有应用与生物系统之间的差异

总体来看,几乎所有关于神经元的知识(它们的结构、类型、互连性等)都被排除在当前形式的深度神经网络模型之外。

目前尚不清楚生理回路的哪些方面在计算中必不可少且对基于神经网络的人工智能系统可能有用,但结构上的差异非常显著。

例如,生物上的神经元在形态学、生理学和神经化学方面是非常复杂和多样的。一个典型的兴奋性锥体神经元的输入分布在极其复杂且高度分枝的基底和顶端树突状树上。抑制性皮质神经元具有多种不同的形态,这些形态可能发挥不同的功能。

典型的深度神经网络模型中不包含这种异质性和其他复杂性,而是使用一组有限的高度简化的同质人工神经元。

就神经网络中各单元之间的连通性而言,大脑中的皮层回路比当前的深度神经网络模型更复杂,包括同一层神经元之间通过本地和远距实现的丰富的横向连接,以及皮层区域层级中可能以典型的本地“规范回路”的形式组织而成的从高层到低层自上而下的连接。

以深度神经网络为基础的学习方法已经在以现实世界感知数据(如视觉和语音)为主的相关问题上取得了显著成功,近来,科学家们愈发努力地去解决那些更偏向于认知性的问题。

例如,在视觉领域,神经网络模型的开发最初以处理诸如对象分类和分割等感知性问题为主。在此基础上扩展的一些类似的方法目前正被应用于更高级别的问题,例如图像描述,即为某个图像生成简短的文字描述;或者视觉问题回答领域,即为用自然语言(即人类交流)提出的有关某个图像内容的问题生成适当的回答。其他非视觉任务包括判断幽默、检测讽刺或捕捉直觉物理或社会理解的各个方面。类似的方法也被应用于现实世界的各个方面,例如在线翻译、灵活的个人助理、医疗诊断、高级机器人或自动驾驶。

在有了这些大量的研究工作以及投入到未来人工智能应用的巨额资金之后,我们面临的一个主要的开放性问题在于:目前的方法能够在多大程度上产生“真实”和类似人类的理解力?或者在处理认知和通用人工智能(AGI)的广泛领域,是否将形成更多的、可能完全不同的方向?这个问题的答案是未知的,而且不论在科学领域,还是商业领域,它都牵扯到巨大的利益。

如果当前深度神经网络模型在产生类人类认知能力方面的成功被证明是有限的,那么接下来可以为我们提供指引的一个方向依然是神经科学。

到目前为止,在人工智能模型中被忽略的大脑回路各个方面是否可以为通用人工智能提供关键指引?大脑的哪些方面可能是尤为重要的?这些问题目前还没有明确的答案,因为我们对大脑皮层回路的理解仍然有限,但我将会简要地从一个大致的方向进行讨论,我认为大脑和深度神经网络模型看起来有着根本的不同,并且有可能在类人类的通用人工智能的探索中起到重要的功能性作用。

两者的差异集中在关于认知中经验论和先天论之间平衡的古老问题,即先天认知结构和一般学习机制的相对角色。

当前的人工智能模型严重倾向于经验主义,使用相对简单和统一的神经网络结构,并且主要依靠使用大量训练数据扩展学习。

相比之下,生物系统则建立于在学习之前就已经在脑回路中编码的特定的预先存在神经网络结构的基础上,常常通过有限的训练来完成复杂的行为任务。例如,不同的物种的动物,如昆虫、鱼类和鸟类,都可以执行复杂的导航任务,部分原因在于它们天生拥有一套具有复杂计算能力、可用于特定领域的精密机制。

就人类而言,婴儿在生命最初的几个月中,在很少或没有明确训练的情况下,就开始发展出复杂的感知和认知技能。例如,他们能自发地识别复杂物体(如人的手),跟随其他人的凝视方向,并能在视觉上区分出动画角色究竟是在帮助还是在阻碍他人,以及其它各种体现出对身体和社会互动有初步理解能力的任务。

大量发育研究表明,这种快速的、非监督式的学习之所以具有可能性,是因为人类认知系统在进化的过程中,配备了有助于获得有意义的概念和认知技能的基本先天结构。

利用先天结构突破现有人工智能局限?

一个主要的开放性问题在于:与皮质回路相比,当前神经网络模型的高度简化结构是否足以捕获全方位的人类学习和认知?

与现有的深度神经网络模型相比,人类在认知学习和理解方面的优越性可能主要源于人类认知系统中包含的更丰富和复杂的先天结构。

近来针对婴儿时期视觉学习的模拟结果已经显示出学习和先天机制之间存在相互关联,其中有意义的复杂概念既不是天生的,也不是通过自己学习获得的。这个中间视图中的先天成分并不是发展形成的概念,而是一种更简单的“原型概念”,它在很少或没有明确培训的情况下,能够提供内部教学信号并指导学习系统沿着逐步获取和组织复杂概念的路径发展。

例如,结果显示了图像运动的特定模式是如何能够为手的识别提供可靠的内部教学信号。对手的识别以及它们在操纵物体中的参与度可以反过来能够引导学习系统识别凝视方向,而且我们已经知道,识别出凝视目标有助于学习推断人的意图 。这种先天结构可以通过布置具有特定初始连接的局部皮层区域来实现,其中的初始连接能够为特定目标提供输入信号和错误信号。

在人工智能神经网络模型中也可以采用有用的先天结构,使他们的学习和理解方式与人类更加相像。 

发现有用的先天结构这一挑战,可以通过理解和模仿相关的大脑机制来完成,或者可以开发一种“从头开始”的计算学习方法,支撑一个主体、人或人工智能高效灵活学习理解其环境的结构。

科学家们已经在这个方向上进行了一些尝试,但从整体上来说,“学习内部结构”的计算问题与当前的学习过程有所不同,人们对它的了解也极其有限。将经验和计算方法结合到问题中,从长远上看来可能有益于神经科学和通用人工智能(AGI),并最终可能成为适用于两者的智能处理理论的组成部分。

在这里给大家推荐一个python系统学习q群:250933691有免费开发工具以及初学资料,(数据分析,爬虫,AI,  机器学习,神经网络)每天有老师给大家免费授课,欢迎一起交流学习.

猜你喜欢

转载自blog.csdn.net/weixin_42142987/article/details/87902930