导语


为了帮助学生学习统计力学的基本原理及其在理解神经网络内部工作原理的应用,在2022年9月到2023年6月,中山大学、PMI Lab管理人黄海平教授组织了《神经网络的统计力学》在线课程,为了庆祝课程完整上线1年,让更多的人学习课程的优质内容,我们对课程价格进行了调整,具体方案见下文。

同时从2024年6月17日起,我们将正式开启一个全新的主题读书会「AI by Complexity」,站在复杂科学的视角,看复杂系统的理论如何指导AI的设计,以及如何将AI看成一个复杂系统来研究。其中统计物理是一个关键视角。本次读书会的发起人包括加利福尼亚大学圣迭戈分校助理教授尤亦庄、北京师范大学副教授刘宇、北京师范大学系统科学学院在读博士张章、牟牧云和在读硕士杨明哲、清华大学在读博士田洋,发起人团队将带领大家从不同的视角呈现复杂系统的研究成果以及与AI如何融合,包括作为复杂系统的AI大模型、生命复杂性视角、统计物理视角、复杂网络视角、信息论视角、复杂系统的临界性视角等。欢迎大家参与讨论。





课程介绍




统计物理方法是一座架起微观作用到宏观涌现的桥梁,2021年诺贝尔物理学奖得主帕里西在无序系统方面作出开创之举,他提出复本对称破缺方法解决自旋玻璃问题,这一方法也对神经网络等交叉学科产生深厚影响,激发学者对人工智能和人脑等复杂系统的进一步研究。

本系列课程系统性地讲解统计力学的基本原理及其在理解神经网络内部工作原理的应用,包括用于理解神经网络原理的必要统计力学知识,包括复本方法、空腔方法、平均场近似、变分法、随机能量模型、Nishimori条件、动力学平均场理论、对称性破缺、随机矩阵理论等,同时详细描述了监督学习、无监督学习、联想记忆网络、感知器网络、随机循环网络等神经网络及其功能的物理模型以及解析理论。内容以黄海平老师的书籍《Statistical Mechanics of Neural Networks》为参考文献。


课程培养目标:培养一批有望在神经网络理论深耕的青年学者(侧重学生)。
课程大纲:
第 1 讲:《神经网络的统计力学》绪论
第2-3讲:自旋玻璃模型简介和空腔法
第 4 讲:变分平均场理论与信念传播
第5-6讲:蒙特卡罗方法
第 7 讲:高温展开
第8-9讲:西森线、贝叶斯最优估计与随机能量模型
第10-12讲:Hopfield模型的统计物理
第13-15讲:复本对称与破缺
第16-17讲:受限制玻尔兹曼机的统计力学
第 18 讲:无监督学习的最简模型:序如何从学习数据自发涌现
第19-20讲:无监督学习的内禀对称性破缺
第 21 讲:监督学习的统计物理“标准模型”:算法、存储、分类与几何
第 22 讲:监督学习的最优贝叶斯框架:算法与相变
第 23 讲:物理启发的深度学习算法:随机路径激发、系综元学习与模式分解
第 24 讲:深度表示空间的几何变换:一种精确的物理近似
第 25 讲:脉冲神经网络与兴奋抑制平衡理论:平均场理论对脑科学的一次伟大胜利
第 26 讲:动力学平均场理论与混沌相变:索普林斯基遇见薛定谔
第 27 讲:随机矩阵之厄米篇:爱德华兹遇见伊辛

第 28 讲:随机矩阵之非厄米篇:索普林斯基遇见麦克斯韦






课程负责人




黄海平,中山大学物理学院教授。本科毕业于中山大学理工学院,博士毕业于中国科学院理论物理研究所,随后在香港科技大学物理系、东京工业大学计算智能系  (2012年获日本学术振兴会资助) 以及日本理化学研究所 (RIKEN) 脑科学中心从事统计物理与机器学习、  神经计算交叉的基础理论研究,2017年因在无监督学习方面的研究获得 RIKEN  杰出研究奖。于2018年入选中山大学百人计划,在物理学院组建了“物理、机器与智能”  (PMI)研究小组,专注于各种神经计算的理论基础,长期目标是使用基于物理的近似来揭示机器及大脑智能的基本原理。曾主持国家自然科学基金两项。
PMI Lab:https://www.labxing.com/hphuang2018





加入课程,开始学习




为了庆祝课程完整上线1年,让更多的人体验学习课程的优质内容,我们特做出如下优惠方案:


1. 价格调整为49元

2. 同时对于2个月内(2024年4月15日-至今)购买本课程的用户,将返还价值200元的积分到账户,可以用户消费(不可提现);

3. 加入「AI by Complexity」读书会的成员,开放4个月课程学习权限(2024年7月-10月)。


扫码付费报名课程

课程链接:https://campus.swarma.org/course/4543?from=wechat

第一步:扫码付费

第二步:在课程详情页面,填写“学员信息登记表”

第三步:扫码添加助教微信,入群本课程可开发票。

课程负责人黄海平的评论文章:统计物理、无序系统和神经网络





核心参考书籍




Huang H. Statistical mechanics of neural networks[M]. Springer, 2021.
神经网络的统计力学(英文版),黄海平,高等教育出版社,2022.08
本书通过简洁的模型展示了神经网络原理的数学美和物理深度,并介绍了相关历史和展望未来研究的重要课题,可供对神经网络原理感兴趣的学生、研究人员以及工程师阅读参考。

书籍目录(详版):

Chapter 1:  IntroductionChapter 2:  Spin Glass Models and Cavity Method

  • 2.1 Multi-spin Interaction Models

  • 2.2 Cavity Method

  • 2.3 From Cavity Method to Message Passing Algorithms

Chapter 3:  Variational Mean-Field Theory and Belief Propagation

  • 3.1 Variational Method

  • 3.2 Variational Free Energy

  • 3.3 Mean-Field Inverse Ising Problem

Chapter 4:  Monte Carlo Simulation Methods

  • 4.1 Monte Carlo Method

  • 4.2 Importance Sampling

  • 4.3 Markov Chain Sampling

  • 4.4 Monte Carlo Simulations in Statistical Physics

Chapter 5:  High-Temperature Expansion

  • 5.1 Statistical Physics Setting

  • 5.2 High-Temperature Expansion

  • 5.3 Properties of the TAP Equation

Chapter 6:  Nishimori Line

  • 6.1 Model Setting

  • 6.2 Exact Result for Internal Energy

  • 6.3 Proof of No RSB Effects on the Nishimori Line

Chapter 7:  Random Energy Model

  • 7.1 Model Setting

  • 7.2 Phase Diagram

Chapter 8:  Statistical Mechanical Theory of Hopfield Model

  • 8.1 Hopfield Model

  • 8.2 Replica Method

  • 8.3 Phase Diagram

  • 8.4 Hopfield Model with Arbitrary Hebbian Length

Chapter 9:  Replica Symmetry and Replica Symmetry Breaking

  • 9.1 Generalized Free Energy and Complexity of States

  • 9.2 Applications to Constraint Satisfaction Problems

  • 9.3 More Steps of Replica Symmetry Breaking

Chapter 10:  Statistical Mechanics of Restricted Boltzmann Machine

  • 10.1 Boltzmann Machine

  • 10.2 Restricted Boltzmann Machine

  • 10.3 Free Energy Calculation

  • 10.4 Thermodynamic Quantities Related to Learning

  • 10.5 Stability Analysis

  • 10.6 Variational Mean-Field Theory for Training Binary RBMs

Chapter 11:  Simplest Model of Unsupervised Learning with Binary

  • 11.1 Model Setting

  • 11.2 Derivation of sMP and AMP Equations

  • 11.3 Replica Computation

  • 11.4 Phase Transitions

  • 11.5 Measuring the Temperature of Dataset

Chapter 12:  Inherent-Symmetry Breaking in Unsupervised Learning

  • 12.1 Model Setting

  • 12.2 Phase Diagram

  • 12.3 Hyper-Parameters Inference

Chapter 13:  Mean-Field Theory of Ising Perceptron

  • 13.1 Ising Perceptron model

  • 13.2 Message-Passing-Based Learning

  • 13.3 Replica Analysis

Chapter 14:  Mean-Field Model of Multi-layered Perceptron

  • 14.1 Random Active Path Model

  • 14.2 Mean-Field Training Algorithms

  • 14.3 Spike and Slab Model

Chapter 15:  Mean-Field Theory of Dimension Reduction in Neural Networks

  • 15.1 Mean-Field Model

  • 15.2 Linear Dimensionality and Correlation Strength

  • 15.3 Dimension Reduction with Correlated Synapses

Chapter 16:  Chaos Theory of Random Recurrent Neural Networks

  • 16.1 Spiking and Rate Models

  • 16.2 Dynamical Mean-Field Theory

  • 16.3 Lyapunov Exponent and Chaos

  • 16.4 Excitation-Inhibition Balance Theory

  • 16.5 Training Recurrent Neural Networks

Chapter 17:  Statistical Mechanics of Random Matrices

  • 17.1 Spectral Density

  • 17.2 Replica Method and Semi-circle Law

  • 17.3 Cavity Approach and Marchenko

  • 17.4 Spectral Densities of Random Asymmetric Matrices

Chapter 18:  Perspectives



AI By Complexity读书会招募中


集智俱乐部联合加利福尼亚大学圣迭戈分校助理教授尤亦庄、北京师范大学副教授刘宇、北京师范大学系统科学学院在读博士张章、牟牧云和在读硕士杨明哲、清华大学在读博士田洋共同发起「AI By Complexity」读书会,探究如何度量复杂系统的“好坏”?如何理解复杂系统的机制?这些理解是否可以启发我们设计更好的AI模型?在本质上帮助我们设计更好的AI系统。读书会于6月10日开始,每周一晚上20:00-22:00举办。欢迎从事相关领域研究、对AI+Complexity感兴趣的朋友们报名读书会交流!



详情请见:AI by Complexity 读书会启动:复杂性怎样量化和驱动下一代AI系统



点击“阅读原文”,报名课程