脉冲神经网络与兴奋抑制平衡理论:平均场理论对脑科学的一次伟大胜利 | 周六直播·神经网络的统计力学课程第25讲
导语
统计物理方法是一座架起微观作用到宏观涌现的桥梁,2021年诺贝尔物理学奖得主帕里西在无序系统方面作出开创之举,他提出复本对称破缺方法解决自旋玻璃问题,这一方法也对神经网络等交叉学科产生深厚影响,激发学者对人工智能和人脑等复杂系统的进一步研究。由中山大学黄海平教授组织的【神经网络的统计力学】系列课程,系统性梳理统计力学的基本原理及其在理解神经网络内部工作原理的应用,自2022年9月持续到2023年6月,周六授课。课程视频将在集智学园网站同步,购课回看录播请扫二维码或下拉至文末报名。
5月27日(周六)10:00-12:00 将进行系列课程的第25讲,共有两部分内容,一是接着24讲分享无监督学习中深度网络的平均场降维理论,二是随机循环神经网络的混沌理论的前序介绍。同时基于平均场框架,脉冲神经网络的兴奋抑制平衡理论成功地解释了脉冲神经网络的发放无序性,是平均场理论对脑科学的一次伟大胜利。最后讨论两种训练循环神经网络的算法:FORCE算法和随时间反向传播算法,使得循环神经网络得以处理复杂的计算任务。本节课程会在集智学园视频号和B站直播,预约及付费报名方式见下文。
课程简介
课程简介
本次分享主要包括两个部分,第一部分:无监督学习中深度网络的平均场降维理论(2)。在上一节课程中,我们给出了神经表示维度和关联程度的定义,以及计算维度的平均场框架。这一节课程中,我们在热力学极限条件下,从解析的层面分析维度下降的物理机制。该平均场框架下弱关联权重和无关联权重网络得到了许多有趣的模拟结果,精确地预测了输入数据随着网络层次结构的降维过程,并且给出了非常深刻的物理结论。第二部分,随机循环神经网络的混沌理论的前序介绍。我们首先介绍循环神经网络的脉冲模型和率模型,给出两者的动力学方程以及丰富的物理意义。基于平均场框架,脉冲神经网络的兴奋抑制平衡理论成功地解释了脉冲神经网络的发放无序性。根据这种兴奋-抑制平衡理论,神经放电纯粹是由输入的涨落驱动的,产生异步的不规则模式,与在清醒的皮层中观察到的现象一致。因此,兴奋抑制平衡理论是平均场理论对脑科学的一次伟大胜利。最后,讨论两种训练循环神经网络的算法:FORCE算法和随时间反向传播算法,使得循环神经网络得以处理复杂的计算任务。
本节课程大纲
本节课程大纲
1. 维度下降的平均场框架
2. 循环神经网络的脉冲模型和率模型介绍
3. 脉冲神经网络的兴奋抑制平衡理论
4. 随时间反向传播算法
负责人介绍
负责人介绍
黄海平,中山大学物理学院教授。本科毕业于中山大学理工学院,博士毕业于中国科学院理论物理研究所,随后在香港科技大学物理系、东京工业大学计算智能系 (2012年获日本学术振兴会资助) 以及日本理化学研究所 (RIKEN) 脑科学中心从事统计物理与机器学习、 神经计算交叉的基础理论研究,2017年因在无监督学习方面的研究获得 RIKEN 杰出研究奖。于2018年入选中山大学百人计划,在物理学院组建了“物理、机器与智能” (PMI)研究小组,专注于各种神经计算的理论基础,长期目标是使用基于物理的近似来揭示机器及大脑智能的基本原理。曾主持国家自然科学基金青年基金、优秀青年基金等国家级项目。
直播信息
直播信息
2023年5月27日(周六)10:00-12:00
-
集智学园视频号预约
-
集智学园 B 站免费直播,房间号 https://live.bilibili.com/6782735
参与方式二:付费加入课程,查看课程回放
付费后,可参与集智学园平台直播并加入交流群获得视频回放权限。欢迎对统计力学的基本原理感兴趣的你,加入【神经网络的统计力学】课程!
课程定价:499元
课程时间:从2023年2月18日起,每周六 10:00-12:00(节假日除外)
扫码付费报名课程
https://campus.swarma.org/course/4543
付费流程:
第一步:扫码付费
第二步:在课程详情页面,填写“学员信息登记表”
第三步:扫码添加助教微信,入群
神经网络的统计力学
每周更新,持续报名中
本学期内容介绍
系列课程大纲
-
2.1 Multi-spin Interaction Models -
2.2 Cavity Method -
2.3 From Cavity Method to Message Passing Algorithms
-
3.1 Variational Method -
3.2 Variational Free Energy -
3.3 Mean-Field Inverse Ising Problem
-
4.1 Monte Carlo Method -
4.2 Importance Sampling -
4.3 Markov Chain Sampling -
4.4 Monte Carlo Simulations in Statistical Physics
-
5.1 Statistical Physics Setting -
5.2 High-Temperature Expansion -
5.3 Properties of the TAP Equation
-
6.1 Model Setting -
6.2 Exact Result for Internal Energy -
6.3 Proof of No RSB Effects on the Nishimori Line
-
7.1 Model Setting -
7.2 Phase Diagram
-
8.1 Hopfield Model -
8.2 Replica Method -
8.3 Phase Diagram -
8.4 Hopfield Model with Arbitrary Hebbian Length
-
9.1 Generalized Free Energy and Complexity of States -
9.2 Applications to Constraint Satisfaction Problems -
9.3 More Steps of Replica Symmetry Breaking
-
10.1 Boltzmann Machine -
10.2 Restricted Boltzmann Machine -
10.3 Free Energy Calculation -
10.4 Thermodynamic Quantities Related to Learning -
10.5 Stability Analysis -
10.6 Variational Mean-Field Theory for Training Binary RBMs
-
11.1 Model Setting -
11.2 Derivation of sMP and AMP Equations -
11.3 Replica Computation -
11.4 Phase Transitions -
11.5 Measuring the Temperature of Dataset
-
12.1 Model Setting -
12.2 Phase Diagram -
12.3 Hyper-Parameters Inference
-
13.1 Ising Perceptron model -
13.2 Message-Passing-Based Learning -
13.3 Replica Analysis
-
14.1 Random Active Path Model -
14.2 Mean-Field Training Algorithms -
14.3 Spike and Slab Model
-
15.1 Mean-Field Model -
15.2 Linear Dimensionality and Correlation Strength -
15.3 Dimension Reduction with Correlated Synapses
-
16.1 Spiking and Rate Models -
16.2 Dynamical Mean-Field Theory -
16.3 Lyapunov Exponent and Chaos -
16.4 Excitation-Inhibition Balance Theory -
16.5 Training Recurrent Neural Networks
-
17.1 Spectral Density -
17.2 Replica Method and Semi-circle Law -
17.3 Cavity Approach and Marchenko -
17.4 Spectral Densities of Random Asymmetric Matrices
报名加入课程
扫码付费报名课程
AI+Science 读书会启动