今晚九点图网络读书会直播 | 用于通用结构特征提取的预训练图神经网络
8月12日(周一)21:00-21:40,集智图网络线上读书会将进行新一期的论文分享直播,欢迎感兴趣的朋友参与。
直播主题:
用于通用结构特征
提取的预训练图神经网络
虽然 GNN 模型及其变体在图结构数据的学习方面取得了成功,但是训练一个准确的 GNN 模型需要大量的带标注的图数据,而标记样本需要消耗大量的人力资源,为了解决这样的问题,一些学者开始研究Graph Pre-training的框架以获取能够迁移到不同任务上的通用图结构信息表征。
在NLP和CV领域中,学者已经提出了大量的预训练架构。比如:BERT(Devlin et al., 2018)和VGG Nets (Girshick et al., 2014),这些模型被用来从未标注的数据中学习输入数据的通用表征,并为模型提供更合理的初始化参数,以简化下游任务的训练过程。
这个分享将向大家介绍图上的预训练模型,来自论文Pre-Training Graph Neural Networks for Generic Structural Feature Extraction 重点讨论下面两个问题:
GNNs 是否能够从预训练中受益?
设置哪几种预训练任务比较合理?
论文题目:Pre-Training Graph Neural Networks for Generic Structural Feature ExtractionPre-Training Graph Neural Networks for Generic Structural Feature Extraction
Pre-Training Graph Neural Networks for Generic Structural Feature Extraction
论文地址:
https://arxiv.org/abs/1905.13728
主讲人:金良
直播地址:集智俱乐部 B 站直播间
zoom房间:https://zoom.us/j/311987098
👀关注B站主播“集智俱乐部”
不错过每一场集智重磅直播
直播地址:
https://live.bilibili.com/8091531
直播时间 :21:00-21:40
集智图网络线上读书会公开招募
图神经网络是深度学习领域的前沿热点议题,尤其是图网络(Graph Networks)提出以来,深度学习有了实现因果推理的潜力。为了持续追踪相关领域的前沿进展,集智俱乐部联合北师大系统科学学院张江课题组,组织了以图网络为主题的线上读书会,研讨最新论文,孕育研究思路。
每一期线上读书会由一位成员主讲,形式为论文分享,时间为每周一 21:00-21:40。加入读书会群需报名审核,原则上参与者应有能力独立完成一次线上分享。如果你也正在从事图网络与深度学习方面的研究工作或技术实践,或者对该领域有强烈的学习意愿,欢迎填写报名表,申请加入“集智图网络论文分享小组”!
报名请点击下方小程序,填写报名表。填表之后会有入群方式。
编辑:张爽
往期论文解读
-
第十六期图网络论文解读
-
时间:6 月24日 周一
-
主讲人:张章
-
论文题目:
Weight Agnostic Neural Networks
-
论文地址:
https://arxiv.org/abs/1906.04358
-
视频回放:
-
第十八期图网络论文解读
-
时间:7 月8日 周一
-
主讲人:高飞
-
论文题目:
How Powerful are Graph Neural Networks?
-
论文地址:
https://arxiv.org/pdf/1810.00826
-
视频回放:
-
第二十二期图网络论文解读
-
时间:8 月5日 周一
-
主讲人:王硕
-
论文题目:
Spatiotemporal Multi-Graph Convolution Network for Ride-hailing Demand Forecasting (基于时空多图卷积网络的网约车需求量预测)
-
论文地址:
http://www-scf.usc.edu/~yaguang/papers/aaai19_multi_
graph_convolution.pdf
-
视频回放:
http://campus.swarma.org/play/coursedetail?id=10934
http://campus.swarma.org/play/coursedetail?id=10936
http://campus.swarma.org/play/coursedetail?id=10960
集智俱乐部QQ群|877391004
商务合作及投稿转载|swarma@swarma.org
◆◆◆
搜索公众号:集智俱乐部
加入“没有围墙的研究所”
让苹果砸得更猛烈些吧!
原文始发于微信公众号(集智俱乐部):集智