会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
coldyan
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
···
8
下一页
2018年1月31日
cs231n---语义分割 物体定位 物体检测 物体分割
摘要: 1 语义分割 语义分割是对图像中每个像素作分类,不区分物体,只关心像素。如下: (1)完全的卷积网络架构 处理语义分割问题可以使用下面的模型: 其中我们经过多个卷积层处理,最终输出体的维度是C*H*W,C表示类别个数,表示每个像素在不同类别上的得分。最终取最大得分为预测类别。 训练这样一个模型,我们
阅读全文
posted @ 2018-01-31 12:05 coldyan
阅读(2701)
评论(0)
推荐(0)
2018年1月30日
cs231n---循环神经网络
摘要: 1 RNN介绍 (1)一对多,多对一,多对多的任务 传统的神经网络只能处理一对一的任务,而RNN可以处理一对多,多对一,多对多的任务: 其中,一些典型的应用如下: Image Captioning:image -> sequence of words (one to many) Sentiment
阅读全文
posted @ 2018-01-30 15:03 coldyan
阅读(1237)
评论(0)
推荐(0)
2018年1月28日
cs231n---CNN架构
摘要: 1 LeNet-5 (1998) 第一个被提出的卷积网络架构,深度较浅,用于手写数字识别。 2 AlexNet (2012) 架构为: CONV1 ->MAX POOL1 ->NORM1 ->CONV2 ->MAX POOL2 ->NORM2 ->CONV3->CONV4->CONV5->Max P
阅读全文
posted @ 2018-01-28 17:31 coldyan
阅读(545)
评论(0)
推荐(0)
2018年1月25日
cs231n--详解卷积神经网络
摘要: 原版地址:http://cs231n.github.io/convolutional-networks/ 知乎翻译地址:https://zhuanlan.zhihu.com/p/22038289?refer=intelligentunit 1 卷积层 (1)理解卷积层 按照卷积的观点看,卷积层由若干
阅读全文
posted @ 2018-01-25 17:40 coldyan
阅读(717)
评论(0)
推荐(0)
2018年1月24日
Spring 2017 Assignments2
摘要: 一.作业要求 原版:http://cs231n.github.io/assignments2017/assignment2/ 翻译:http://www.mooc.ai/course/268/learn?lessonid=2029#lesson/2029 二.作业收获及代码 完整代码地址:https
阅读全文
posted @ 2018-01-24 10:46 coldyan
阅读(300)
评论(0)
推荐(0)
2018年1月22日
深度神经网络基础
摘要: (本文记录深度神经网络中最基本最重要的内容,想要快速复习这些内容,阅读这些笔记即可) 1.反向传播 反向传播理解:https://zhuanlan.zhihu.com/p/21407711?refer=intelligentunit 最好的向量反向传播理解:http://www.cnblogs.co
阅读全文
posted @ 2018-01-22 10:50 coldyan
阅读(261)
评论(0)
推荐(0)
2018年1月18日
cs231n官方note笔记
摘要: 本文记录官方note中比较新颖和有价值的观点(从反向传播开始) 一 反向传播 1 “反向传播是一个优美的局部过程。在整个计算线路图中,每个门单元都会得到一些输入并立即计算两个东西:1. 这个门的输出值,和2.其输出值关于输入值的局部梯度。门单元完成这两件事是完全独立的,它不需要知道计算线路中的其他细
阅读全文
posted @ 2018-01-18 10:45 coldyan
阅读(2327)
评论(0)
推荐(0)
2018年1月15日
Spring 2017 Assignments1
摘要: 一.作业要求 原版:http://cs231n.github.io/assignments2017/assignment1/ 翻译:http://www.mooc.ai/course/268/learn?lessonid=1962#lesson/1962 二.作业收获及代码 完整代码地址:https
阅读全文
posted @ 2018-01-15 16:44 coldyan
阅读(292)
评论(0)
推荐(0)
2017年10月13日
问题
摘要: 1 只考虑二阶特征组合情况,穷举所有可能的二阶特征组合并用LR训练,与直接使用FM训练,哪一种效果更好?为什么? 答:使用FM效果更好。原因是穷举所有二阶特征组合,对于高维稀疏特征来说,某些特征组合项非0的样本数是很少的,势必会导致学出来的权重不准,这也是为什么FM要学习特征隐向量的原因。 2 如果
阅读全文
posted @ 2017-10-13 21:03 coldyan
阅读(191)
评论(0)
推荐(0)
2017年3月27日
《机器学习技法》---GBDT
摘要: 1 对决策树使用adaboost 对决策树使用adaboost时,有以下几个问题: (1)adaboost每次更新的样本权重如何应用到决策树中? 由于我们不知道决策树的err目标是什么,因此通常的方法是根据权重对样本采样,然后给决策树训练,这样我们不需要修改决策树算法本身,样本的权重信息就传进去了。
阅读全文
posted @ 2017-03-27 10:53 coldyan
阅读(306)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
···
8
下一页
公告