08 2017 档案

浮点数规格化-不同基数的规格化
摘要:2017-08-29 看到一篇博客写的挺好的: http://blog.csdn.net/u011240016/article/details/52608323 阅读全文

posted @ 2017-08-29 10:16 洛珈山下 阅读(1139) 评论(0) 推荐(0)

第十节课-RNN介绍
摘要:2017-08-21 这次的课程介绍了RNN的相关知识; 首先是RNN的几种模型: 分别又不同的应用场景,包括机器翻译,视频的分类。。。 RNN的解释: 主要的特点就是用到了上一个隐含状态的信息,所以RNN网络具有记忆的特性; 一个例子:Vanilla网络: 接下来是RNN的coputational 阅读全文

posted @ 2017-08-22 11:11 洛珈山下 阅读(394) 评论(0) 推荐(0)

第九节课-CNN架构
摘要:2017-08-21 这次的课程比较偏向实际的运用,介绍了当前几种比较主流的CNN网络; 主要是AlexNet,GoogleNet, VGG, ResNet 需要把课后习题做了才能更好的理解。 阅读全文

posted @ 2017-08-21 23:43 洛珈山下 阅读(183) 评论(0) 推荐(0)

第八节课-深度学习软件
摘要:2017-08-19 主要内容:CPU和GPU介绍,几种深度学习框架的介绍 1.CPU和GPU CPU一般核数目比较少,适合做通用的计算,速度比较快,共享系统的内存 GPU一般单个核心的速度比较慢,但是核心数目很多,几千个,但是CPOU只有几个几十个,所以GPU适合做简单的人物,大规模并行计算,在深 阅读全文

posted @ 2017-08-19 20:26 洛珈山下 阅读(237) 评论(0) 推荐(0)

jupyter && ipython notebook简介
摘要:2017-08-19 最近用了一下 ipython notebook 也就是 jupyter,这里有一个介绍还不错: http://www.cnblogs.com/howiewang/p/jupyter-install.html 阅读全文

posted @ 2017-08-19 09:51 洛珈山下 阅读(188) 评论(0) 推荐(0)

第六节课-(第七节课)训练神经网络-2
摘要:2017-08-18 备注:1-5节课看的是2016年冬季的课程,6开始看的是2017春季的课程。因为按照2016的内容安排,第六节课在2017就是第七节课了。所以这里是从第七节课开始。 上次内容: 神经网络训练的第一部分内容,主要是激活函数的优缺点介绍,数据的预处理,包括PCA数据降维,数据的规范 阅读全文

posted @ 2017-08-18 20:04 洛珈山下 阅读(200) 评论(0) 推荐(0)

第五节课-神经网络2
摘要:2017-08-15 这节课个人感觉没有怎么听懂,大概主要讲了一下几个点: 神经网络的历史、激活函数之间的优缺点对比、数据的预处理、权重的初始化注意事项、正则化、学习过程种的监督(学习率)、超参数的优化 1.历史: 从最早的二元分类器感知机,到后面的多层感知机,神将网络,再到后面的改个名字深度学习。 阅读全文

posted @ 2017-08-15 15:57 洛珈山下 阅读(173) 评论(0) 推荐(0)

第四节课-反向传播&&神经网络1
摘要:2017-08-14 这节课的主要内容是反向传播的介绍,非常的详细,还有神经网络的部分介绍,比较简短。 首先是对求导,梯度的求解。反向传播的核心就是将函数进行分解,分段求导,前向计算损失,反向计算各个单元的梯度,即代表 各个单元对于最后结果的影响力。因为神经网络一般过于庞大,所以采取分段求导会比较实 阅读全文

posted @ 2017-08-14 16:05 洛珈山下 阅读(235) 评论(0) 推荐(0)

第三节课-损失函数和优化
摘要:2017-08-13 Loss functiuon and opetimization 这节课主要介绍了损失函数的概念,和如何对损失函数进行优化,从而找到最优的参数值W; 损失函数介绍了两种,SVM - multi class calssifier: 对SVM的一个扩展,可以分类多个类别; mult 阅读全文

posted @ 2017-08-13 15:24 洛珈山下 阅读(221) 评论(0) 推荐(0)

Logistic回归python实现
摘要:2017-08-12 Logistic 回归,作为分类器: 分别用了梯度上升,牛顿法来最优化损失函数: # -*- coding: utf-8 -*-'''function: 实现Logistic回归,拟合直线,对数据进行分类;利用梯度上升,随机梯度上升,改进的随机梯度上升,牛顿法分别对损失函数优化 阅读全文

posted @ 2017-08-12 21:46 洛珈山下 阅读(3747) 评论(0) 推荐(0)

第二节课-Data-driven approach:KNN和线性分类器分类图片
摘要:2017-08-12 1.图片分类是很多CV任务的基础; 2.图片分类要面临很多的问题,比如图片被遮挡,同一种动物有很多种颜色,形状等等,算法需要足够强壮; 3.所以很难直接写出程序来进行图片分类,常用的方法是数据的驱动的方法: 4.KNN: 重点在于选取K的数值,可以采取交叉验证的方式,找到最佳的 阅读全文

posted @ 2017-08-12 15:37 洛珈山下 阅读(765) 评论(0) 推荐(0)

第一节课:简介和历史回顾
摘要:15:13:382017-08-11 【这是2016年冬季的课程,2017的暂时好像还没有出】 1.介绍计算机视觉的发展历史,5.4亿年 2.这门课虽然是计算机视觉,但是主要侧重点在图像的分类任务上; 3.主要集中在CNN卷积神经网络的学习,基于对ImageNet图片的处理; 4.2012~2015 阅读全文

posted @ 2017-08-11 15:15 洛珈山下 阅读(214) 评论(0) 推荐(0)

HMM代码实现
摘要:按照网上的代码,自己敲了一下,改了一点点,理解加深了一下。 还有训练HMM的EM算法没看懂,下次接着看; 参考连接:http://www.cnblogs.com/hanahimi/p/4011765.html 阅读全文

posted @ 2017-08-10 16:36 洛珈山下 阅读(2019) 评论(1) 推荐(0)

决策树代码《机器学习实战》
摘要:22:45:17 2017-08-09 KNN算法简单有效,可以解决很多分类问题。但是无法给出数据的含义,就是一顿计算向量距离,然后分类。 决策树就可以解决这个问题,分类之后能够知道是问什么被划分到一个类。用图形画出来就效果更好了,这次没有学哪个画图的,下次。 这里只涉及信息熵的计算,最佳分类特征的 阅读全文

posted @ 2017-08-09 22:46 洛珈山下 阅读(356) 评论(0) 推荐(0)

HMM简单理解(来自quora&其他网上资料)
摘要:转载自quora: 连接:https://www.quora.com/What-is-a-simple-explanation-of-the-Hidden-Markov-Model-algorithm 理解一 通俗的理解就是,每天母亲做的甜点和天气有关。有天气序列,可以观测得到,甜点序列,是我们想知 阅读全文

posted @ 2017-08-07 12:43 洛珈山下 阅读(1076) 评论(0) 推荐(0)

KNN算法的实现
摘要:KNN算法是机器学习经典十大算法之一,简单易懂。这里给出KNN的实现,由两个版本: 1.机器学习实战上作者的实现版本,我自己又敲了一遍感觉还是蛮有收获的; 2.用自己的理解的一个实现,主要的区别就是效率没有第一个高,因为第一个大量使用矩阵向量的运算,速度比较快,还有就是作者的代码比较简介好看。自己的 阅读全文

posted @ 2017-08-07 09:00 洛珈山下 阅读(525) 评论(0) 推荐(0)

普通神经网络和RNN简单demo (一)
摘要:2017-08-04 花了两天时间看了下神经网络的一点基础知识,包括单层的感知机模型,普通的没有记忆功能的多层神经网咯,还有递归神经网络RNN。这里主要是参考了一个博客,实现了几个简单的代码,这里把源地址给出来,还有几个我觉的不错的神经网络的入门资源: https://iamtrask.github 阅读全文

posted @ 2017-08-05 16:39 洛珈山下 阅读(1127) 评论(0) 推荐(0)

导航