随笔分类 -  模式识别与机器学习

基础内容
深度学习Deep Learning Tutorial(李宏毅)————————自学笔记
摘要:自己接触的一些东西不够深入,整个体系的结构也不够清晰,所以回头从一些入门经典资料进行重新梳理。以下内容图片均来自Deep learning tutorial(李宏毅),其他内容均为本人自己的理解而做的一些记录,不代表原文观点,不保证准确性。 一、深度学习介绍 1.1 深度学习的介绍 先来看看机器学习 阅读全文

posted @ 2017-10-20 17:43 取个不重复的名字 阅读(5325) 评论(0) 推荐(1)

关于转置卷积的一些资料收集
摘要:卷积与转置卷积的运算的示意图https://github.com/vdumoulin/conv_arithmetic#convolution-arithmetic 知乎如何理解转置卷积?https://www.zhihu.com/question/43609045 caffe中图片转换为矩阵图解,以 阅读全文

posted @ 2017-10-12 17:08 取个不重复的名字 阅读(843) 评论(0) 推荐(1)

2017/7/20 朱兴全教授学术讲座观点与总结第三讲:多层神经网络
摘要:一、多层神经网络(为什么可以解决多种问题) 多层神经网络:在输入和输出层上有隐含层,可以克服单层神经网络的限制处理非线性分离问题 多层有更大的区分度,多条线去拟合 第三个图中,每一个方块对应第二个图中神经网络,即有两个隐含层。 第三个图中,每一个方块对应第二个图中神经网络,即有两个隐含层。 二、Fe 阅读全文

posted @ 2017-07-22 11:00 取个不重复的名字 阅读(350) 评论(0) 推荐(0)

2017/7/20 朱兴全教授学术讲座观点与总结第二讲:单个神经元/单层神经网络
摘要:一、神经网络的结构 习惯的强势:能量最小化 大脑控制区在人对某一个事情形成习惯后,在该事情发生时,作出判断时不再消耗能量。(能量最小化与误差最小化?我想知道这里的能量与一般的能量函数之间有没有什么联系的地方?) 前向网络:网络中只有输入到输出的连接(下面给出单层和多层前向网络) 非隐藏层中可以比较期 阅读全文

posted @ 2017-07-22 09:11 取个不重复的名字 阅读(1496) 评论(0) 推荐(0)

2017/7/19 朱兴全教授学术讲座观点与总结第一讲
摘要:前言 WHY?AI是从策略出发,简单可描述(可以用清晰的规则和算法取实现)的任务,让机器去执行。我们希望复杂难以描述的任务(如无人驾驶,语音识别等情况复杂,需要推理和抽象化的任务)也可以由机器去实现,ML/DL是从数据驱动出发。数据挖掘、模式识别、机器学习和神经网络都是用来解决这些复杂的情况下的任务 阅读全文

posted @ 2017-07-20 22:07 取个不重复的名字 阅读(355) 评论(0) 推荐(0)

深度学习相关基本概念理解
摘要:1、CNN,RNN和DNN https://www.zhihu.com/question/34681168 摘要: CNN神经元上下层之间是局部连接,通过卷积核作为中介,所有的卷积核在所有图像内是共享的(权值共享说明对于特征来说,不同位置可以使用同样的卷积核,说明在特征提取的过程中,在不同位置都可能 阅读全文

posted @ 2017-07-14 14:56 取个不重复的名字 阅读(254) 评论(0) 推荐(0)