随笔分类 -  深度学习

摘要:Meta Learning--MAML算法理解 以下为对MAML算法的理解:(MAML的目的是:learning good weight initalizations) 上面MAML对应的算法,步骤4-7对应的李弘毅老师《深度学习》图中的子任务的第一步(如a),步骤8对应图中的第二步(如b,c) 在 阅读全文
posted @ 2021-11-23 09:31 小孢子 阅读(1135) 评论(0) 推荐(0)
摘要:为什么有这篇文章(motivation)? 之前的文章都是只考虑face region 的单独关系,并没有考虑face region与face region之间的relation。本文,作者利用graph来建立region之间的关系。并且得到Edge Map作为先验,对边缘的pixel增加权值。(即 阅读全文
posted @ 2021-11-11 22:38 小孢子 阅读(277) 评论(0) 推荐(0)
摘要:为什么有这篇文章(motivation)? 作者认为人脸不不同的region对FER(人脸表情识别)的贡献是不同的,所以作者把人脸裁剪为patch的形式(利用关键点得到24个patch),计算每个patch对FER的贡献度(利用attention)。但是local patch可能会漏掉一些有用的信息 阅读全文
posted @ 2021-11-11 15:42 小孢子 阅读(230) 评论(0) 推荐(0)
摘要:https://www.bilibili.com/video/BV1eE411g7xc?from=search&seid=18200585142631999829 阅读全文
posted @ 2020-11-19 19:46 小孢子 阅读(134) 评论(0) 推荐(0)
摘要:前序: 上图是输入是 6x6x3的彩色图片【彩色图片一般就是3个feature map(红绿蓝)=彩色图片channel 的数量】,经过2个不同的卷积核,则产生两个不同特征的输出(输出的图片就可以看做是feature map) feature map的数量:该层卷积核的个数,有多少个卷积核,经过卷积 阅读全文
posted @ 2020-07-11 11:36 小孢子 阅读(42675) 评论(0) 推荐(5)
摘要: 阅读全文
posted @ 2020-07-09 08:40 小孢子 阅读(274) 评论(0) 推荐(0)
摘要:4.2深层网络中的向前传播 4.3核对矩阵的维数 4.5:搭建深层神经网络块 阅读全文
posted @ 2020-06-02 10:02 小孢子 阅读(163) 评论(0) 推荐(0)
摘要:3.2神经网络的表示 该神经网络由两层组成,隐藏层数为一 隐藏层的含义是:在训练集中,这些中间节点的真正数值我们是不知道的,在训练集你看不到他们的数值。你只能看到输入值,也能看见输出值。这就是所谓的“隐藏层” 第零层:向量X表示输入特征,输入特征的数值还有另外一种表示方式,用a[0]来表示,即X=a 阅读全文
posted @ 2020-06-02 09:33 小孢子 阅读(235) 评论(0) 推荐(0)
摘要:2.7计算图 2.8计算图的导数计算 2.9 logistic回归中的梯度下降法 2.10 m个样本的梯度下降 2.11向量化比for循环可以节省大量的时间,运行速度会更快 2.12 向量化的更多例子 2.13 向量化logistic 回归 2.15python中的广播 https://blog.c 阅读全文
posted @ 2020-06-01 21:54 小孢子 阅读(171) 评论(0) 推荐(0)
摘要:第 31 题 在我们的前向传播和后向传播实现中使用的“缓存”是什么? B.我们用它将在正向传播过程中计算的变量传递到相应的反向传播步骤。它包含了反向传播计算导数的有用值。 如图: 第 32 题 以下哪些是“超参数”?(选出所有正确项) A.隐藏层规模n[l]【★】 B.神经网络的层数L【★】 C.激 阅读全文
posted @ 2020-06-01 21:38 小孢子 阅读(246) 评论(0) 推荐(0)
摘要:第 14 题 考虑以下两个随机数组a和b: a = np.random.randn(2, 3) # a.shape = (2, 3) b = np.random.randn(2, 1) # b.shape = (2, 1) c = a + b c的维度是什么? 答: b(列向量)复制3次,以便它可以 阅读全文
posted @ 2020-05-31 23:51 小孢子 阅读(301) 评论(0) 推荐(0)
摘要:Attention 机制 1. 什么是Attention? 简而简之,深度学习中的注意力可以被广义地理解为标志重要性的权重向量 为了预测或推断一个元素,例如图像中的像素或句子中的单词,我们使用注意力权重来估计其他元素与其相关的强度,并将由注意力权重加权的值的总和作为计算最终目标的特征。 Step1. 阅读全文
posted @ 2020-04-29 19:12 小孢子 阅读(329) 评论(0) 推荐(0)