摘要: 深度学习知识点 Batch Normalization 作用:神经网络在训练的时候随着网络层数的加深,激活函数的输入值的整体分布逐渐往激活函数的取值区间上下限靠近,从而导致在反向传播时低层的神经网络的梯度消失。而BatchNormalization的作用是通过规范化的手段,将越来越偏的分布拉回到标准 阅读全文
posted @ 2020-08-03 23:43 机器狗mo 阅读(321) 评论(0) 推荐(0)
摘要: dgl: G = dgl.DGLGraph() G.add_nodes(10) # 10 isolated nodes are added G.add_edge(0, 1) G.add_edges([1, 2, 3], [3, 4, 5]) # three edges: 1->3, 2->4, 3- 阅读全文
posted @ 2020-08-03 16:16 机器狗mo 阅读(113) 评论(0) 推荐(0)
摘要: 输入一个整数数组,判断该数组是不是某二叉搜索树的后序遍历结果。如果是则返回 true,否则返回 false。假设输入的数组的任意两个数字都互不相同。 参考以下这颗二叉搜索树: 5 / \ 2 6 / \ 1 3 示例 1: 输入: [1,6,3,2,5] 输出: false 示例 2: 输入: [1 阅读全文
posted @ 2020-08-03 00:29 机器狗mo 阅读(93) 评论(0) 推荐(0)