• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
返回主页

sbj123456789

  • 博客园
  • 首页
  • 新随笔
  • 联系
  • 订阅
  • 管理

机器学习、深度学习资源索引

batch/iteration/epoch的区别:

      深度学习中的batch(batch size,full batch,mini batch, online learning)、iterations与epoch

GCN相关:

  深度学习新星 | 图卷积神经网络(GCN)有多强大?

  GRAPH CONVOLUTIONAL NETWORKS——THOMAS KIPF

  How powerful are Graph Convolutions? (review of Kipf & Welling, 2016)

 attention/Transformer:

  自然语言处理中的自注意力机制(Self-attention Mechanism)

  图解Transformer (英文原文:The Illustrated Transformer 讲得非常详细,强烈推荐!)

依存句法与成分句法:

  Constituent Parsing & Dependency Parsing 句法分析简介

 Batch Normalization、Layer Normalization:

  深度学习网络层之 Batch Normalization

  BatchNormalization、LayerNormalization、InstanceNorm、GroupNorm、SwitchableNorm总结

 

posted @ 2018-08-24 14:52  sbj123456789  阅读(155)  评论(0)    收藏  举报
刷新页面返回顶部

公告

博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3