导语


科学发现作为人类知识进步的核心驱动力,与科学研究的基础因果关系密切相关。通过关注因果发现,研究者能够挖掘数据中潜在的因果关系,获得新的研究思路和方向,从而促进科学发展。此外,现代科学研究越来越注重模型的可解释性,因果发现有助于揭示数据背后的真实机制,为科学家提供更具解释力的模型,进而深化对相关领域的理解。


为了促进因果科学社区、AI+Science社区以及后ChatGPT社区的跨学科交流和碰撞,扩展科研思维,我们组织了此次圆桌活动,希望通过分享+圆桌讨论的形式,帮助大家更好地交流。其中分享环节组主要是由CMU的张坤老师团队介绍因果表征读书会的相关内容。在圆桌讨论环节,来自斯坦福、MIT、CMU等国内外的老师和同学围绕「因果表征学习」「科学发现」以及「大模型」等话题进行探讨和交流。


本次圆桌活动是集智俱乐部三个读书会的联动,欢迎感兴趣的朋友参与!


 • 因果表征学习读书会

 • AI+Science读书会

 • 后chatGPT读书会





分享简介




因果发现是指从观测数据中推断变量之间的因果关系,而不进行随机实验。这是一个既有挑战又有重要意义的问题,对于人工智能和科学发现都有很大的价值,因为它可以帮助我们理解复杂现象背后的机制,测试因果假设,和设计有效的干预措施。在这次活动中,我们将邀请CMU的张坤教授和他的团队来介绍他们在因果表征学习方面的最新进展,这是一种利用深度神经网络和图模型进行因果发现的新范式。我们还将与来自不同学科的专家进行圆桌讨论,探讨如何将因果发现应用到不同领域的科学发现中。





分享大纲




 • 什么是因果表征学习,它为什么重要?

 • 如何使用深度神经网络和图模型从数据中学习因果表征?

 • 因果表征学习面临哪些挑战和机遇?

 • 如何使用因果表征进行不同领域的科学发现?

 • 圆桌讨论:如何打造AI科学家平台



讲者介绍




张坤:卡内基梅隆大学副教授和MBZUAI大学副教授,研究兴趣是机器学习和人工智能,尤其是因果发现、基于因果关系的学习和通用人工智能。曾担任大型机器学习或人工智能会议的区域主席或高级程序委员会成员,包括NeurIPS、UAI、ICML、AISTATS、AAAI和IJCAI。

个人主页:https://www.cmu.edu/dietrich/philosophy/people/faculty/zhang.html


谢少安:卡内基梅隆大学张坤教授的博士研究生,研究兴趣是基于因果推论的机器学习与计算机视觉。在机器学习以及视觉领域顶会如ICML, NeurIPS, ICLR, CVPR等以第一作者发表过多篇论文。

个人主页: shaoan.net


黄碧薇:加州大学圣地亚哥分校助理教授,主要研究方向为causal discovery & causality-related machine learning, 以及在生物和神经科学等领域的应用。她的研究贡献已发表在 JMLR、ICML、NeurIPS、KDD、AAAI、IJCAI 、UAI等ML/AI主要期刊和会议。她是 CMU 校长奖学金和Apple AI/ML博士奖学金的获得者。主办了NeurIPS 2020 workshop on causal discovery and causality-inspired machine learning 以及1st conference on Causal Learning and Reasoning (CLeaR)。 

个人主页:https://biweihuang.com/





圆桌嘉宾介绍




张金野,哈佛大学博士后,即将成为卡内基梅隆大学助理教授,与Alkes Price教授一起研究统计遗传学,在斯坦福大学攻读博士学位,师从David Tse教授和James Zou教授。研究兴趣是整合 GWAS 和单细胞 RNA-seq 数据;了解复杂疾病和性状的常见和罕见变异遗传结构;多组学数据的因果推断等。
个人主页:https://martinjzhang.github.io/

薛业翔,普渡大学的助理教授,在康奈尔大学攻读计算机系博士,师从教授Carla Gomes和Bart Selman教授。研究重点是开发智能系统,将决策制定与机器学习和不确定性下的概率推理紧密结合。多个科学领域做出了核心贡献,从人工智能、机器学习、可再生能源、材料科学、众包、公民科学、城市计算、生态学到行为计量经济学。
个人主页:
https://www.cs.purdue.edu/homes/yexiang/


吴泰霖,斯坦福大学计算机科学系的博士后研究员,由Jure Leskovec教授指导。他的研究兴趣为AI+Science,包括开发机器学习方法用于大规模科学和工程模拟,开发神经符号方法用于科学发现,以及由科学问题启发的表示学习(运用图神经网络、信息理论和物理等方法)。
个人主页:https://tailin.org/

王瀚宸,现任斯坦福计算机科学系与基因泰克新药研发部门联合博士后,导师为Jure Leskovec教授和Aviv Regev院士。他的研究重点在于将AI/ML等先进计算技术应用于基因组学及新型疗法的临床研究,并涉猎与基础模型相关的领域(如自监督学习、持续学习、机器学习系统等)。他作为第一作者在Nature、Nature Machine Intelligence、NeurIPS、ICCV等期刊和会议发表文章,也在ICML、NeurIPS、ICLR上举办过一些与AI for Science相关的workshop。他本科保送至南京大学匡亚明学院物理系,导师是王欣然教授。他在剑桥大学获得机器学习博士学位,导师是Joan Lasenby教授。
个人主页:https://www.hanchenw.com




直播信息




直播时间:

2023年5月7日(周日)上午9:00-11:00


参与方式:
扫码参与读书会,加入群聊获取本系列读书会的视频回放权限、资料权限,与社区的一线科研工作者和企业实践者沟通交流。




拟讨论的问题列表




如何打造一个通用的「AI科学家」平台,赋能科研工作?

1.在AI科学发现的领域中,存在哪些普遍和基础的机器学习问题?这一领域的研究方法有哪些共同的步骤和流程?

2.因果推断在大型语言模型(LLM)中扮演什么样的角色?它们之间有什么联系和区别?

3.LLM如何与科学数据和知识进行交互和融合?LLM与科学领域之间有什么样的接口和桥梁?

4.针对不同领域的科学问题,如何设计和构建一个AI科学家,能够有效地利用新的数据集和数据类型,从而做出有意义的科学发现?这样一个AI科学家系统需要具备哪些关键的组件和功能?

5.在AI科学发现的研究中,有哪些子领域之间的组合是较少被关注但具有重要价值的?

6.LLM在处理科学数据和知识时,如何解决不确定性问题?不确定性对LLM的性能和效果有什么影响?

7.不同的科学领域(如生物学、物理学等)对AI的不同子领域(如以下10点)提出了哪些挑战和需求?

以及更多在这个过程中衍生讨论出来的问题。


因果关系和大型语言模型

由陆超超老师推荐
  1. 因果推理:大型语言模型是否能够学习进行因果推理?它们是否能够区分因果关系,并利用这种理解来预测未来事件?
  2. 因果推断:如何利用大型语言模型进行因果推断任务,例如识别干预对系统的因果效应或预测政策变化的影响?
  3. 因果发现:大型语言模型是否可以用于因果发现任务,例如在复杂系统中识别变量之间的因果关系?
  4. 反事实推理:大型语言模型是否能够推理出反事实情景,例如“如果……会怎样”,并生成可信的反事实结果?
  5. 干预推理:大型语言模型是否能够推理出干预的影响,例如改变变量值对系统结果的影响?
  6. 偏见和公正:大型语言模型是否能够设计出对数据和决策过程中的偏见和公正进行因果推理的方法,并生成干预措施来解决这些问题?
  7. 可解释性:如何使大型语言模型在其因果推理能力方面更具可解释性,以便更好地理解和分析其决策过程?
  8. 时间序列预测:大型语言模型能否通过学习因果关系来进行时间序列预测,例如预测未来的气温、股票价格或流行病趋势?
  9. 因果语言生成:大型语言模型能否生成包含因果关系的自然语言文本,例如解释某个事件的原因和结果?
  10. 对抗干扰:大型语言模型能否应对对抗性攻击和干扰,例如识别对抗性样本并保持其因果推理能力?
  11. 因果图神经网络:可以将因果图和神经网络结合起来,以实现更准确和高效的因果推理和预测?


AI for科学发现与大模型

由吴泰霖老师贡献

From AI-Descartes [1]

  1. 符号回归(symbolic regression):根据输入和输出的数据,发现符号表示的方程能尽可能准确简明地把输入映射到输出。

  2. 概念学习(concept learning):从数据中自动学习和提取出抽象概念。比如从数据中提取出“准粒子”、“对称性”、“熵”等抽象的概念。

  3. 词典学习(dictionary learning):从数据中学习一组基本元素(称为字典),使得数据可以通过这些基本元素的稀疏线性组合来表示。比如从数据中学出一系列的数学公理,又比如从数据中学习出一系列的物理理论。

  4. 关系学习(relation learning):自动学习和识别系统中不同子系统的潜在关系。

  5. 因果学习(causal learning):自动学习和识别数据中的因果关系。

  6. AI用于推理(AI for reasoning):AI可以帮助演绎推理(deductive reasoning)和诱导推理(abductive reasoning)。演绎推理是指一般原则或前提出发,通过逻辑推导得出特定结论,比如定理证明(theorem proving)。诱导推理是指根据观察到的现象或结果,尝试找到最可能的解释或原因。

  7. AI用于实验设计(AI for experimental design):AI帮助科学家和研究人员更高效地设计实验,找到最优实验条件,提高数据收集的质量,并加速知识发现过程。包含搜索最优实验条件、自动优化、多目标优化、高效筛选、无监督学习、以及预测和推理等方面。

  8. AI用于离群点检测(Outlier Detection):用于识别数据集中与大多数数据点显著不同的数据点。在粒子物理、宇宙学、材料科学等方面有重要应用

  9. AI科学家:把以上各部分有机组合起来, 形成一个闭环的AI科学家从事科学研究。有名的工作有Adam [2], AI Physicist [3],AI-Descartes [1], LLM for scientific experiments [4]等。

[1] Cornelio, Cristina, et al. “Combining data and theory for derivable scientific discovery with AI-Descartes.” Nature Communications 14.1 (2023): 1777.
[2] King, Ross D., et al. “The automation of science.” Science 324.5923 (2009): 85-89.
[3] Wu, Tailin, and Max Tegmark. “Toward an artificial intelligence physicist for unsupervised learning.” Physical Review E 100.3 (2019): 033311.
[4] Boiko, Daniil A., Robert MacKnight, and Gabe Gomes. “Emergent autonomous scientific research capabilities of large language models.” arXiv preprint arXiv:2304.05332 (2023).

大模型 for 因果发现与机器学习

由李嫣然老师贡献

[1] MLCopilot: 释放大型语言模型解决机器学习任务的能力

论文题目:MLCopilot: Unleashing the Power of Large Language Models in Solving Machine Learning Tasks
论文地址:https://arxiv.org/abs/2304.14979
作者:L Zhang, Y Zhang, K Ren, D Li, Y Yang[Microsoft Research]
要点:

 • 动机:机器学习在各个领域得到了广泛的应用,但针对特定场景自适应的机器学习仍然是昂贵且不容易的。而现有的自动化机器学习方法通常耗时且难以理解,本研究旨在通过引入新的框架MLCopilot,利用LLM来开发新型机器学习任务的机器学习解决方案,以弥合机器智能和人类知识之间的差距。

 • 方法:提出一种新框架MLCopilot,利用最先进的语言模型(即LLM)为新机器学习任务开发机器学习解决方案。该研究将问题分解成两个组件,包括离线和在线阶段。离线阶段,MLCopilot将历史数据规范化,并创建经验池。LLM用于从历史经验中提取有价值的知识。在线阶段,MLCopilot根据目标任务的描述从经验池中检索最相关的任务经验,然后与LLM交互以一次性获得多个建议的机器学习解决方案。

 • 优势:展示了LLM扩展到理解结构化输入和执行彻底推理的可能性,并发现经过一些专门设计后,LLM可以从现有的机器学习任务中获得经验,并有效地推理出有前途的结果。生成的解决方案可以直接用于实现高水平的竞争力。还提出了一种新的检索和提示框架,用于几乎即时地解决机器学习任务,而无需任何耗时的搜索或优化。

一句话总结:
提出一种新的框架MLCopilot,利用最先进的语言模型(即LLMs为新型机器学习任务开发机器学习解决方案。该研究展示了LLM扩展到理解结构化输入和执行彻底推理的可能性,并发现经过一些专门设计后,LLM可以从现有的机器学习任务中获得经验,并有效地推理出有前途的结果。生成的解决方案可以直接用于实现高水平的竞争力。

[2]因果推理与大型语言模型: 开辟因果关系的新前沿
论文题目:Causal Reasoning and Large Language Models: Opening a New Frontier for Causality
论文地址:https://arxiv.org/abs/2305.00050
作者:E Kıcıman, R Ness, A Sharma, C Tan [Microsoft Research & University of Chicago]
要点:

 • 动机:大型语言模型的因果推理能力一直是一个争议性的问题,对其在医学、科学、法律和政策等领域的应用具有重要意义。本文旨在深入了解大型语言模型的因果能力,并考虑不同类型因果推理任务之间的区别以及构造和测量效度的威胁。

 • 方法:采用多个因果基准测试数据集,发现基于大型语言模型的方法在多个因果推理任务中取得了新的最高准确率,并能使用自然语言输入系统地处理因果关系。同时提供了一些技巧来解释大型语言模型的失效模式。

 • 优势:大型语言模型可以作为人类领域知识的代理,以减少人类在因果分析中的工作量,同时帮助实现协变与逻辑因果分析的统一。

一句话总结:
探讨了大型语言模型的因果推理能力,发现它们可以在多种因果推理任务中取得新的最高准确率,并能够使用自然语言输入系统地处理因果关系。同时,这些模型具有不可预测的失效模式,需要特殊技巧来解释其鲁棒性。本文认为大型语言模型可以作为人类领域知识的代理,以减少人在因果分析中的工作量,同时帮助实现协变与逻辑因果分析的统一。
https://arxiv.org/abs/2305.00050

[3]复杂推理:大语言模型的北极星能力

论文题目:Towards Complex Reasoning: the Polaris of Large Language Models
论文链接:
(英文)https://yaofu.notion.site/Towards-Complex-Reasoning-the-Polaris-of-Large-Language-Models-c2b4a51355b44764975f88e6a42d4e75
(中文)https://yaofu.notion.site/6dafe3f8d11445ca9dcf8a2ca1c5b199
作者:符尧 [英国爱丁堡大学]

我们研究复杂推理的原因有两个:

 • 正如上文提到的,复杂推理是标志着小模型与大模型差异的关键因素,这一点在 GPT-4 发布文章中已经讨论过。

 • 复杂推理是使模型成为下一代操作系统的核心能力。

将语言模型视为下一代操作系统的愿景尤为有趣,因为它为构建新应用程序和创建基于语言模型的计算生态系统(可能比超级应用程序如 ChatGPT 提供更大的机会)开辟了无数可能性。复杂推理能力是基础,因为如果我们希望模型成为新的操作系统,它需要能够通过与工具、用户和外部环境的所有元素互动来完成复杂的指令。

本文研究了如何训练具有强大复杂推理能力的模型,如何进行提示工程以充分发挥模型的推理能力,以及如何评估模型的推理性能。本文的内容分为以下几部分:

 • 在第 2 部分,我们讨论了构建具有强大复杂推理能力的语言模型的现有方法。复杂推理的方案与通用大型语言模型(LLM)开发的方案相似,包括三个阶段:持续训练 (continue training)、指令微调 (instruction finetuning) 和强化学习 (reinforcement learning)。我们还会进一步讨论代码与推理之间令人惊讶的耦合关系。

 • 在第 3 部分,我们讨论了复杂推理的提示工程 (prompt engineering) 技术。当语言模型成为新一代操作系统内核时,提示工程 / 场景学习将成为新一代脚本编程 (shell script)。

 • 在第 4 部分,我们讨论了如何评估大型语言模型的推理能力。我们介绍 Chain-of-thought Hub,这是一个包含100多个推理任务的数据集合,清楚地标示了大型与小型模型的差异。我们重点介绍了 LLaMA 65B 的出色表现。我们认为它具有非常强大的潜力,可作为再现 ChatGPT-3.5 的基座模型。


因果表征学习读书会启动


随着“因果革命”在人工智能与大数据领域徐徐展开,作为连接因果科学与深度学习桥梁的因果表征学习,成为备受关注的前沿方向。以往的深度表征学习在数据降维中保留信息并过滤噪音,新兴的因果科学则形成了因果推理与发现的一系列方法。随着二者结合,因果表征学习有望催生更强大的新一代AI。


集智俱乐部组织以“因果表征学习”为主题、为期十周的读书会,聚焦因果科学相关问题,共学共研相关文献。欢迎从事因果科学、人工智能与复杂系统等相关研究领域,或对因果表征学习的理论与应用感兴趣的各界朋友报名参与。集智俱乐部已经组织三季“因果科学”读书会,形成了超过千人的因果科学社区,因果表征学习读书会是其第四季,现在加入读书会即可参与因果社区各类线上线下交流合作。



详情请见:
连接因果科学与深度学习的桥梁:因果表征学习读书会启动

原文链接:https://pattern.swarma.org/study_group/22?from=wechat



AI+Science 读书会启动


AI+Science 是近年兴起的将人工智能和科学相结合的一种趋势。一方面是 AI for Science,机器学习和其他 AI 技术可以用来解决科学研究中的问题,从预测天气和蛋白质结构,到模拟星系碰撞、设计优化核聚变反应堆,甚至像科学家一样进行科学发现,被称为科学发现的“第五范式”。另一方面是 Science for AI,科学尤其是物理学中的规律和思想启发机器学习理论,为人工智能的发展提供全新的视角和方法。

集智俱乐部联合斯坦福大学计算机科学系博士后研究员吴泰霖(Jure Leskovec 教授指导)、哈佛量子计划研究员扈鸿业、麻省理工学院物理系博士生刘子鸣(Max Tegmark 教授指导),共同发起以“AI+Science”为主题的读书会,探讨该领域的重要问题,共学共研相关文献。读书会从2023年3月26日开始,每周日早上 10:00-12:00 线上举行,持续时间预计10周。欢迎对探索这个激动人心的前沿领域有兴趣的朋友报名参与。


详情请见:
人工智能和科学发现相互赋能的新范式:AI+Science 读书会启动


点击“阅读原文”,报名读书会