大脑如何储存长期记忆、检索回忆、做决策?这些大脑的运行机制值得AI学习( 二 )


  • 特征二:吸引子网络的记忆容量
记忆容量指的是能够可靠地存储在吸引子网络中的记忆数量 。吸引子网络的记忆容量受到几个因素的影响 。其一是噪声,当网络中存储了过多的记忆时,每个吸引子的吸引域会缩小,从而降低了吸引子对噪声的容忍度 。另一个因素是记忆相关性,当记忆模式高度相关时,它们会相互干扰,破坏记忆的检索 。为了增加吸引子网络的记忆容量,人们已经提出了许多方法,从学习规则到网络结构,如基于新奇性的赫布规则(Hebbian rule)3和模块化霍普菲尔德网络(Hopfield network)4 。
  • 特征三:吸引子网络的信息检索
除了具有大容量的记忆能力外,一个优秀的信息处理系统还需要高效的信息搜索能力 。在吸引子网络中,记忆通常以内容寻址方式进行检索,即网络通过吸引子动态执行相似性计算,检索出与线索最相似的记忆 。
在大容量网络中,从众多吸引子中找到正确的一个是具有挑战性的 。例如,在一个自由记忆检索任务中,参与者需要尽可能多地搜索和回忆动物的名称 。一个良好的回忆策略是在局部记忆搜索与记忆空间大跳跃之间合适地组合,表现出莱维飞行行为* 。董行思等人证明,在一个带有噪声神经适应的CANN中,网络状态的动态显示出交替的局部布朗运动和长跳跃运动,呈现出莱维飞行的最佳信息搜索行为5 。
*编辑注:莱维飞行行为(Levy flight behavior)是一种随机行为模式,其中个体在一定时间内以不规则的方式移动,具有长尾分布的步长 。这种行为模式以法国数学家Paul Lévy的名字命名 。莱维飞行行为与传统的随机行走模型(如布朗运动)不同,后者通常假设步长是固定的,而莱维飞行行为中的步长是从长尾分布中随机抽取的,因此具有更大的变化范围 。
  • 特征四:吸引子网络间的信息整合
吸引子网络还可以相互交互,实现信息整合 。张文昊等人研究了如何通过相互连接的CANN来实现多感官信息处理6, 7 。在他们的模型中,每个模块包含两组神经元,每组神经元形成一个CANN,这些神经元的调谐函数相对于模态输入要么是一致的,要么是相反的 。该研究证明,具有一致神经元的耦合CANN可以实现信息整合,而具有相反神经元的耦合CANN可以实现信息分离,它们之间的相互作用能够有效地实现多感官整合和分离 。这项研究表明,相互连接的吸引子网络可以支持不同脑区之间的信息传递 。
最近,在全球范围内的技术进步和大型脑项目的推动下,大量关于脑结构细节和神经活动的数据正在涌现,现在是建立大规模网络模型来模拟更高级认知功能的时机 。作为神经信息处理的规范模型,吸引子网络成为人们开展这一任务的基本构建模块,人工智能也可以借助这一基本模块,在信息处理和表征方面受到一些启发 。
根据全局工作空间理论(global neuronal workspace theory)*,大脑分为一个共享的全局处理模块和许多分布式的专门处理模块8 。每个独特的模块处理来自一个模态(如视觉、听觉、嗅觉或运动系统)的信息 。相反,全局模块接收并整合来自所有专门模块的信息,并将整合后的信息“广播”回这些局部模态 。为了实现这个目标,需要一个抽象的信息表示接口,允许不同模块之间进行通信 。从这个意义上说,已经在实验和理论研究中被证明是规范模型的CANN,自然地成为了在模块之间表示、转换、整合和广播信息的统一框架 。在未来的研究中,探索这个问题将是非常有趣的 。
*编辑注:全局工作空间理论或全局工作空间模型是1988年心灵哲学家巴尔斯(B. J. Baars)首次提出的运用语境论解释意识运行的基本规则的模型 。假设意识与一个全局“广播系统”相联系,该系统在整个大脑中发布信息,包括三个部分:专门处理器、全局工作空间和语境 。专门处理器是无意识的,可能是一个单一的神经元,也可能是整个神经网络 。
临界性:为大脑和人工智能带来新的视角
临界性(criticality)的框架是理解和分析复杂系统的强大工具,因为许多物理和自然系统处于临界状态 。在过去的20年里,研究人员发现大脑中的生物神经网络的运行接近临界状态,这为研究脑部动态提供了新的视角 。已知临界状态对脑部的活动/功能非常重要,因为它优化了信息传输、存储和处理的许多方面 。在人工智能领域,临界状态的框架被用于分析和指导深度神经网络的结构设计和权重初始化,表明运行接近临界状态可被视为神经网络计算的基本原则之一 。


推荐阅读