关键词:复杂网络,神经科学,人工智能,神经网络



论文题目:Network model with internal complexity bridges artificial intelligence and neuroscience

论文地址:https://www.nature.com/articles/s43588-024-00674-9

期刊名称:Nature Computational Science


当今人工智能研究人员普遍认为,通用人工智能的构建需要依靠更深、更大规模和更泛化的神经网络模型。然而,这种外部复杂性高的大模型瓶颈也是显而易见:消耗过多算力,理解网络中神经元的行为十分困难。近期发表在Nature Computational Science 的一项研究,通过给单个神经元添加丰富的属性,构建了一种具有神经元内部复杂性的小模型,可与外部复杂性的大模型等效


研究者认为通过找到计算神经科学与人工智能的交叉点,模仿大脑皮层并利用丰富的时空动态,可以帮助解决现有大模型的瓶颈问题。本研究中引入了由4个具有时变电导的LIF神经元组成的子网络结构 tv-LIF2HH。首先,在理论上推导出内部复杂度较低的 LIF2HH 模型和内部复杂度较高的 HH 模型,二者在激发特性上等价。而后在实验中,为解决实际训练中的复杂性问题,研究者使用了一系列近似简化的方法,包括近似发放函数,在网络中使用直接连接,固定神经元电导等(图2c),构建得到s-LIF2HH网络。结果显示,两种神经元模型对不同波形的发放模式都非常相似,放电时间之间的相对误差均低于10%。


在深度学习任务中,研究者发现HH和s-LIF2HH网络结构都具有较强的空间和时间信息提取能力,单个HH神经元信息处理能力的增强补偿了其简单的拓扑结构;HH和s-LIF2HH网络具有相似的噪声鲁棒性,鲁棒性来源于HH神经元的动态复杂性和s-LIF2HH的复杂拓扑结构,而不仅仅是神经元数量。这支持了模型内部和外部复杂性之间的可比性,以及在深度学习任务中,超越了神经元动态模式简单但规模大的模型。此外,与s-LIF2HH网络相比,HH网络提供了可观的计算效率,表明将外部复杂性转换为内部复杂性提高了深度学习模型的效率。


图 1. (a) 神经元仿真模型和神经元网络结构分别对应不同水平的复杂度。具有非常精细和丰富动力学描述的神经元仿真模型对应更高内部复杂度,具有更深和更广泛连接的网络对应更高外部复杂度。(b) 模型的表征能力与其总复杂性有关,总复杂性包括内部复杂性和外部复杂性。


图 2. (a)  HH神经元结构及相关电路图。(b) 等价于HH神经元的tv-LIF2HH子网络结构及相关电路图,每个tv-LIF神经元电位的非线性效应之和等于相同尖峰输入下的HH神经元电位。(c) 连接之间的等效性,tv-LIF2HH模型包括近似操作。(d) 由HH神经元与tv-LIF2HH子网络的等效连接组成的神经网络。LIF2HH网络中的每条线代表了从前一子网络中的四个LIF神经元到整个后一子网络的四个不同连接。


图 3. (a) 相同电流输入,单个HH模型和tv-LIF2HH子网络的电位输出。(b) 按网络中采用的模型分类的三种连接:HH、tv-LIF2HH子网络和s-LIF2HH子网络连接。(c) 将二进制编码和简化后的LIF2HH子网络的实验,使用了正方形、正弦、三角形和锯齿形输入信号。(d) HH神经元和s-LIF2HH子网络的尖峰数和相对触发时间误差。


图 4. 网络结构,与多任务学习(a,c),深度强化学习(a,b,d,e,f)和鲁棒性(a,g,h,i)实验结果。


彭晨 | 编译



计算神经科学读书会



详情请见:计算神经科学读书会启动:从复杂神经动力学到类脑人工智能



AI By Complexity读书会



详情请见:
AI by Complexity 读书会启动:复杂性怎样量化和驱动下一代AI系统



推荐阅读
1. 神经系统理解:人工智能与自然大脑交集之处
2. KAN 1.0到2.0:构建全新神经网络结构,开创AI+Science大统一新范式
3. 第三代神经网络模型:面向AI应用的脉冲神经网络
4. 张江:第三代人工智能技术基础——从可微分编程到因果推理 | 集智学园全新课程
5. 龙年大运起,学习正当时!解锁集智全站内容,开启新年学习计划

6. 加入集智,一起复杂!



点击“阅读原文”,报名读书会