摘要:自己接触的一些东西不够深入,整个体系的结构也不够清晰,所以回头从一些入门经典资料进行重新梳理。以下内容图片均来自Deep learning tutorial(李宏毅),其他内容均为本人自己的理解而做的一些记录,不代表原文观点,不保证准确性。 一、深度学习介绍 1.1 深度学习的介绍 先来看看机器学习
阅读全文
摘要:卷积与转置卷积的运算的示意图https://github.com/vdumoulin/conv_arithmetic#convolution-arithmetic 知乎如何理解转置卷积?https://www.zhihu.com/question/43609045 caffe中图片转换为矩阵图解,以
阅读全文
摘要:一、多层神经网络(为什么可以解决多种问题) 多层神经网络:在输入和输出层上有隐含层,可以克服单层神经网络的限制处理非线性分离问题 多层有更大的区分度,多条线去拟合 第三个图中,每一个方块对应第二个图中神经网络,即有两个隐含层。 第三个图中,每一个方块对应第二个图中神经网络,即有两个隐含层。 二、Fe
阅读全文
摘要:一、神经网络的结构 习惯的强势:能量最小化 大脑控制区在人对某一个事情形成习惯后,在该事情发生时,作出判断时不再消耗能量。(能量最小化与误差最小化?我想知道这里的能量与一般的能量函数之间有没有什么联系的地方?) 前向网络:网络中只有输入到输出的连接(下面给出单层和多层前向网络) 非隐藏层中可以比较期
阅读全文
摘要:前言 WHY?AI是从策略出发,简单可描述(可以用清晰的规则和算法取实现)的任务,让机器去执行。我们希望复杂难以描述的任务(如无人驾驶,语音识别等情况复杂,需要推理和抽象化的任务)也可以由机器去实现,ML/DL是从数据驱动出发。数据挖掘、模式识别、机器学习和神经网络都是用来解决这些复杂的情况下的任务
阅读全文
摘要:1、CNN,RNN和DNN https://www.zhihu.com/question/34681168 摘要: CNN神经元上下层之间是局部连接,通过卷积核作为中介,所有的卷积核在所有图像内是共享的(权值共享说明对于特征来说,不同位置可以使用同样的卷积核,说明在特征提取的过程中,在不同位置都可能
阅读全文