您当前的位置: 首页 > 

静静喜欢大白

暂无认证

  • 3浏览

    0关注

    521博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

百度7天GNN学习-实战3核心代码理解(GraphSage采样)

静静喜欢大白 发布时间:2021-01-13 15:05:15 ,浏览量:3

  1分析 GraphSage采样函数实现

GraphSage的作者提出了采样算法来使得模型能够以Mini-batch的方式进行训练,算法伪代码见论文附录A。

  • 假设我们要利用中心节点的k阶邻居信息,则在聚合的时候,需要从第k阶邻居传递信息到k-1阶邻居,并依次传递到中心节点。
  • 采样的过程刚好与此相反,在构造第t轮训练的Mini-batch时,我们从中心节点出发,在前序节点集合中采样NtN_tNt​个邻居节点加入采样集合。
  • 接着将邻居节点作为新的中心节点继续进行第t-1轮训练的节点采样,以此类推。
  • 最后将采样到的节点和边一起构造得到子图。
论文伪代码

关注
打赏
1510642601
查看更多评论
立即登录/注册

微信扫码登录

0.0793s