随笔分类 -  machine learning

striding layers 是什么意思?
摘要:https://www.zhihu.com/question/66283266/answer/240344515 第一句 We adapted the VGG-16 network (Simonyan & Zisserman, 2015) for dense prediction and remov 阅读全文

posted @ 2017-10-07 10:10 塔上的樹 阅读(1094) 评论(0) 推荐(0)

Softmax 函数的特点和作用是什么?
摘要:https://www.zhihu.com/question/23765351 阅读全文

posted @ 2017-09-25 20:26 塔上的樹 阅读(171) 评论(0) 推荐(0)

卷积层和池化层学习
摘要:http://www.cnblogs.com/zf-blog/p/6075286.html 卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT-CONV-RELU-POOL-FC (1)卷积层:用它来进行特征提取,如下: 输入图像是32*32*3,3是它的深度(即R 阅读全文

posted @ 2017-09-21 09:51 塔上的樹 阅读(1545) 评论(0) 推荐(0)

卷积神经网络的理解
只有注册用户登录后才能阅读该文。

posted @ 2017-09-20 15:49 塔上的樹 阅读(20) 评论(0) 推荐(0)

什么是end-to-end神经网络?
摘要:https://www.zhihu.com/question/51435499 来源:知乎著作权归作者所有。 国立台湾大学的李宏毅教授在其机器学习课程中有讲到深度神经网络的 End-to-end Learning,具体可参看其课件或课程视频的后半部分: 课件:http://speech.ee.ntu 阅读全文

posted @ 2017-09-17 16:30 塔上的樹 阅读(892) 评论(0) 推荐(0)

Stanford机器学习---第十四讲.机器学习应用举例之Photo OCR
摘要:http://blog.csdn.net/l281865263/article/details/50278745 本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神 阅读全文

posted @ 2017-09-15 17:08 塔上的樹 阅读(467) 评论(0) 推荐(0)

ML博客链接
摘要:http://blog.csdn.net/yingwei13mei/article/category/6602238 各种都有(系统教程):http://www.easemob.com/news/760 神级数学推导(日本):https://yjango.gitbooks.io/superorgan 阅读全文

posted @ 2017-09-12 09:49 塔上的樹 阅读(305) 评论(0) 推荐(0)

如何从不均衡类中进行机器学习
摘要:http://blog.csdn.net/yingwei13mei/article/details/73921391 参考自:https://www.svds.com/learning-imbalanced-classes/ 引言 如果您刚从机器学习课程中学习,那么您所使用的大多数数据集都相当容易。 阅读全文

posted @ 2017-09-12 09:46 塔上的樹 阅读(606) 评论(0) 推荐(0)

K-means聚类算法
摘要:转自:http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006910.html K-means也是聚类算法中最简单的一种了,但是里面包含的思想却是不一般。最早我使用并实现这个算法是在学习韩爷爷那本数据挖掘的书中,那本书比较注重应用。看了Andr 阅读全文

posted @ 2017-09-06 19:30 塔上的樹 阅读(476) 评论(0) 推荐(0)

机器学习中对核函数的理解
摘要:http://mp.weixin.qq.com/s?__biz=MzIxNDIwMTk2OQ==&mid=2649077019&idx=1&sn=e0c4a6c502e3668e1dc410f21e531cfd&scene=0#wechat_redirect https://wizardforcel 阅读全文

posted @ 2017-09-05 17:31 塔上的樹 阅读(1715) 评论(0) 推荐(0)

总结:Bias(偏差),Error(误差),Variance(方差)及CV(交叉验证)
摘要:犀利的开头 在机器学习中,我们用训练数据集去训练(学习)一个model(模型),通常的做法是定义一个Loss function(误差函数),通过将这个Loss(或者叫error)的最小化过程,来提高模型的性能(performance)。然而我们学习一个模型的目的是为了解决实际的问题(或者说是训练数据 阅读全文

posted @ 2017-09-05 08:34 塔上的樹 阅读(2043) 评论(0) 推荐(0)

神经网络入门
摘要:http://www.ruanyifeng.com/blog/2017/07/neural-network.html 什么是神经网络呢?网上似乎缺乏通俗的解释。 前两天,我读到 Michael Nielsen 的开源教材《神经网络与深度学习》(Neural Networks and Deep Lea 阅读全文

posted @ 2017-08-31 16:51 塔上的樹 阅读(222) 评论(0) 推荐(0)

目标函数、损失函数、代价函数
摘要:http://www.cnblogs.com/Belter/p/6653773.html 注:代价函数(有的地方也叫损失函数,Loss Function)在机器学习中的每一种算法中都很重要,因为训练模型的过程就是优化代价函数的过程,代价函数对每个参数的偏导数就是梯度下降中提到的梯度,防止过拟合时添加 阅读全文

posted @ 2017-08-23 20:14 塔上的樹 阅读(2203) 评论(0) 推荐(0)

机器学习中模型评估与选择中的几个小问题
摘要:Part 1 Training set、Validation set 与 Testing set 有关于训练数据的过程中,validation与testing有何区别,validation的作用到底是什么。如有100个训练样本。这100个样本既要做训练,又要做测试。因此,可以选择“留出法(hold- 阅读全文

posted @ 2017-07-23 15:44 塔上的樹 阅读(1632) 评论(0) 推荐(0)

A great tutorial with Jupyter notebook for ML beginners
摘要:An end to end implementation of a Machine Learning pipeline SPANDAN MADAN Visual Computing Group, Harvard University Computer Science and Artificial I 阅读全文

posted @ 2017-07-17 15:35 塔上的樹 阅读(1252) 评论(0) 推荐(0)

深度学习之收敛问题
摘要:http://blog.csdn.net/xlbryant/article/details/48470987 1.数据库太小一般不会带来不收敛的问题,只要你一直在train总会收敛(rp问题跑飞了不算)。反而不收敛一般是由于样本的信息量太大导致网络不足以fit住整个样本空间。样本少只可能带来过拟合的 阅读全文

posted @ 2017-07-10 22:12 塔上的樹 阅读(1000) 评论(0) 推荐(0)

机器学习中的范数规则化之(二)核范数与规则项参数选择
摘要:机器学习中的范数规则化之(二)核范数与规则项参数选择 zouxy09@qq.com http://blog.csdn.net/zouxy09 转自:http://blog.csdn.net/zouxy09/article/details/24972869 三、核范数 核范数||W||*是指矩阵奇异值 阅读全文

posted @ 2017-06-30 21:32 塔上的樹 阅读(266) 评论(0) 推荐(0)

机器学习中的范数规则化之(一)L0、L1与L2范数
摘要:机器学习中的范数规则化之(一)L0、L1与L2范数 zouxy09@qq.com http://blog.csdn.net/zouxy09 转自:http://blog.csdn.net/zouxy09/article/details/24971995 今天我们聊聊机器学习中出现的非常频繁的问题:过 阅读全文

posted @ 2017-06-30 21:29 塔上的樹 阅读(258) 评论(0) 推荐(0)