算法与深度学习融合之路:算法神经化求解系列论文解读丨图神经网络与组合优化读书会·周三直播
导语
在解决实际问题时,算法面临两个关键问题:如何获取所需的特定输入以及如何提高数据效率。而深度学习方法在处理自然输入和灵活计算方面具有优势。近年来,将深度学习方法与算法相结合成为一个新兴的问题领域。这种结合一方面可以提高算法的求解效率和解的质量,另一方面可以增强深度学习方法的推理能力和泛化性。在本次分享中,我们将一起探讨几种将算法与深度学习方法结合的实现途径。
为了探讨图神经网络在算法神经化求解的发展与现实应用,集智俱乐部联合国防科技大学系统工程学院副教授范长俊、中国人民大学高瓴人工智能学院助理教授黄文炳,共同发起「图神经网络与组合优化」读书会。读书会将聚焦于图神经网络与算法神经化求解的相关领域,包括神经算法推理、组合优化问题求解、几何图神经网络,以及算法神经化求解在 AI for Science 中的应用等方面,希望为参与者提供一个学术交流平台,激发参与者的学术兴趣,进一步推动相关领域的研究和应用发展。读书会从2023年6月14日开始,每周三晚 19:00-21:00 举行,持续时间预计8周。欢迎感兴趣的朋友报名参与!
分享内容简介
分享内容简介
分享内容大纲
分享内容大纲
-
神经算法推理的蓝图 -
图神经算法推理及CLRS-30介绍 -
一种通用的图神经算法推理器 -
对偶算法推理及其在脑血管数据集上的应用 -
使用Transformer解决推理型任务 -
在神经网络中加入离散求解器模块
开放问题
开放问题
我们到时候会依据具体分享时间,现场决定是否对这些问题进行开放讨论。
2.神经算法推理的发展方向是什么?目前算法推理的主流方向是面向多任务处理,设计通用的算法处理器。理论上,设计多任务模型需要预先确定算法共享的子例程;实践中,往往没有必要去建立一个处理多任务的模型,生活生产中更倾向于通过充分训练,建立一个SOTA的单任务算法模型。因此,目前多任务的算法推理是否是必要的发展呢?
主讲人介绍
主讲人介绍
刘佳玮,北京邮电大学博士研究生,主要研究方向为图数据挖掘与机器学习。
韩瑞,中国科学院软件研究所硕士研究生,目前二年级在读,主要研究方向为自动推理与约束求解。
刘明昊,中国科学院软件研究所博士研究生,主要研究方向为自动推理与约束求解,以及符号推理与机器学习的融合方法,部分研究成果发表于AAAI, IJCAI, CP, SAT, JAIR等国际会议和期刊。
贾富琦,中国科学院软件研究所博士研究生,主要研究方向为自动推理与约束求解,部分研究成果发表于ISSTA, AAAI等国际会议和期刊。
主持人
主持人
张柄旭,国防科技大学系统工程学院2021级硕士研究生,师从刘忠教授和范长俊副教授,研究方向为图神经网络与组合优化。
主要涉及到的参考文献
主要涉及到的参考文献
-
(重点解读)Veličković P., Blundell C.. Neural algorithmic reasoning, 2021, 2(7): 100273
-
(重点解读)Ibarz B., Kurin V., Papamakarios G.. A generalist neural algorithmic learner, 2022, 2: 1-2: 23
-
(重点解读)Keyulu Xu, Jingling Li, Mozhi Zhang, et al. What Can Neural Networks Reason About?. arXiv:1905.13211, 2020
-
(重点解读)Numeroso Danilo, Bacciu Davide, Veličković Petar. Dual algorithmic reasoning. arXiv:2302.04496, 2023
-
(重点解读)Yang Zhun, Ishay Adam, Lee Joohyung. Learning to Solve Constraint Satisfaction Problems with Recurrent Transformer, 2022
-
Rasmus Palm, Ulrich Paquet, and Ole Winther. Recurrent relational networks. In Proceedings of Advances in Neural Information Processing Systems, pp. 3368–3378, 2018.
-
Po-Wei Wang, Priya L Donti, Bryan Wilder, and Zico Kolter. SATNet: Bridging deep learning and logical reasoning using a differentiable satisfiability solver. In Proceedings of the 35th International Conference on Machine Learning (ICML), 2019.
-
Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, et al. An image is worth 16×16 words: Transformers for image recognition at scale. arXiv preprint arXiv:2010.11929, 2020.
-
Zhun Yang, Joohyung Lee, and Chiyoun Park. Injecting logical constraints into neural networks via straight-through estimators. In International Conference on Machine Learning, pp. 25096–25122. PMLR, 2022.
-
(重点解读)Sahoo Subham Sekhar. Backpropagation through combinatorial algorithms: Identity with projection works. arXiv:2205.15213, 2022
对于同时需要“感知”和“推理”两种能力的复杂任务,当前的深度学习并不能很好地解决。部分研究人员试图引入离散求解器负责完成推理部分,但如何将求解器和神经网络两个模块耦合起来,则成为一个重要的挑战。已有工作提出可以为离散求解器构造称为blackbox backpropagation (BB)的近似梯度,从而能够训练这种特殊的网络。本文在此基础上进一步提出了几种改进策略:一是提出identity近似梯度,使得计算梯度无需再调用求解器;二是通过人工对数据做投影,可以提升训练效果;三是对数据附加随机噪声,从而增强模型的鲁棒性。
主要涉及的前置知识
主要涉及的前置知识
•RNN难以并行. https://zhuanlan.zhihu.com/p/368592551
•Transformer. https://zhuanlan.zhihu.com/p/338817680
•Mask的机制. https://ifwind.github.io/2021/08/17/Transformer相关——(7)Mask机制
•Attention的本质. https://zhuanlan.zhihu.com/p/379722366
•Self-attention. https://speech.ee.ntu.edu.tw/~hylee/ml/2021-spring.php
直播信息
直播信息
集智学园最新AI课程,
张江教授亲授:第三代人工智能技术基础
——从可微分编程到因果推理
自1956年“人工智能”诞生于达特茅斯会议以来,已经经历了从早期的以符号推理为主体的第一代人工智能,和以深度神经网络、机器学习为主体的第二代人工智能。ChatGPT的横空出世、生成式AI的普及、AI for Science等新领域的突破,标志着第三代人工智能的呼之欲出。可微分编程、神经微分方程、自监督学习、生成式模型、Transformer、基于图网络的学习与推理、因果表征与因果推断,基于世界模型的强化学习……,所有这些脱胎于前两代人工智能的技术要素很有可能将构成第三代人工智能的理论与技术的基础。
AI+Science 读书会
图神经网络与组合优化读书会启动