大语言模型:对齐与社会模拟丨周五直播·AI+Social Science读书会
图源:MIT News。https://news.mit.edu/2024/large-language-models-use-surprisingly-simple-mechanism-retrieve-stored-knowledge-0325
导语
分享一:
大语言模型如何应对诚实与助人之间的矛盾?
分享一:
大语言模型如何应对诚实与助人之间的矛盾?
该分享与读书会整体主题之间的关系:
简介:
参考论文:
大纲:
-
目前对于这些目标有哪些方法? -
它们在什么情况下以及为什么会发生冲突?
-
理性言语行为(RSA) -
诚实作为质量准则(即真实性) -
帮助性作为相关性准则 -
诚实与帮助性之间的权衡
-
刘易斯信号博弈
-
模型隐含的对话价值观 -
强化学习的人类偏好(RLHF)的影响 -
思维链的影响
-
与实验1相同 -
可控性
-
思维链的影响 -
可控性 -
GPT-4 turbo出人意料地表现出类似人类的特征
7. 要点
涉及到的关键知识概念:
-
大语言模型: Large Language Model
-
对齐 / 诚实和助人: Alignment / Honesty & Helpfulness
-
心理学实验: Psychology Experiments
-
对话价值观: Conversational Values
-
强化学习辅以人类反馈: RLHF
-
格莱斯准则: Gricean Maxims
主讲人:
分享二:LLM群体动力学:社会模拟的新典范
分享二:LLM群体动力学:社会模拟的新典范
该分享与读书会整体主题之间的关系:
简介:
参考论文:
(3)Beyond Demographics: Human-like LLM Agent Construction through Infusing Topic-Specific Opinions based on Belief Network
大纲
-
社会模拟:识别有效的干预措施
-
目标
-
现有基于代理的模型的局限性
-
项目1:我们能否开发基于人类行为的观点动态的ABMs(代理模型)?
-
项目2:大型语言模型(LLM)代理能否模拟观点动态?
-
项目3:LLM代理的观点动态是否类似人类?
-
项目4:如何使LLM代理的观点更类似人类?
涉及到的关键知识概念:
-
LLM代理:LLM Agent
-
多智能体系统:Multi-agent System
-
社会模拟:Social Simulation
-
人类-人工智能对齐:Human-AI Alignment
主讲人:
嘉宾
直播信息
直播信息
直播时间:
参与方式:
集智俱乐部 B 站账号直播,扫码可预约:
扫码预约本次直播
若需要观看视频回放,文末扫码付费参加AI+Social Science读书会可加入腾讯会议,可提问交流、加入群聊、获取视频回放及更多学习资料,成为计算社会科学社区种子用户,与700余名计算社会科学的一线科研工作者沟通交流,共同推动计算社会科学社区的发展。
报名成为主讲人
报名成为主讲人
读书会成员均可以在读书会期间申请成为主讲人。主讲人作为读书会成员,均遵循内容共创共享机制,可以获得报名费退款,并共享本读书会产生的所有内容资源。具体见系列读书会详情:AI+Social Science:大模型怎样重塑社会科学 | 计算社会科学读书会第三季启动
AI+Social Science读书会启动
点击“阅读原文”,报名读书会