会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
marsggbo
互道晚安,王者峡谷见
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
30
31
32
33
34
35
36
37
38
···
46
下一页
2017年10月27日
DeepLearning.ai学习笔记(三)结构化机器学习项目--week2机器学习策略(2)
摘要: 一、进行误差分析 很多时候我们发现训练出来的模型有误差后,就会一股脑的想着法子去减少误差。想法固然好,但是有点headlong~ 这节视频中吴大大介绍了一个比较科学的方法,具体的看下面的例子 还是以猫分类器为例,假设我们的模型表现的还不错,但是依旧存在误差,预测后错误标记的数据中有一部分狗图片被错误
阅读全文
posted @ 2017-10-27 00:03 marsggbo
阅读(1671)
评论(3)
推荐(1)
2017年10月17日
可爱的琪琪
摘要: 此文记录我可爱的侄女 紫琪同学~ 太可爱太懂事了,有些瞬间需要用文字记录下来 2017.09.30 从武汉回到长沙,一到家琪琪就“fufu(叔叔)”的叫我,也不知道她是故意的还是真的还不能正确发音,于是我就逗着说:"你叫错了啦~是叔叔的fu"。琪琪居然仰头大笑,我当时一脸懵逼,这小丫头片子居然能懂我
阅读全文
posted @ 2017-10-17 23:11 marsggbo
阅读(409)
评论(0)
推荐(0)
DeepLearning.ai学习笔记(三)结构化机器学习项目--week1 机器学习策略
摘要: 一、为什么是ML策略 如上图示,假如我们在构建一个喵咪分类器,数据集就是上面几个图,训练之后准确率达到90%。虽然看起来挺高的,但是这显然并不具一般性,因为数据集太少了。那么此时可以想到的ML策略有哪些呢?总结如下: 收集更多的数据 收集更多不同的训练集 结合梯度下降训练算法更长时间 尝试Adam算
阅读全文
posted @ 2017-10-17 14:50 marsggbo
阅读(1805)
评论(0)
推荐(0)
2017年10月4日
coursera 视频总是缓冲或者无法观看的解决办法
摘要: 注意!!!该方法针对Windows用户,亲测有效。 1.用管理员权限记事本打开host文件 2.将如下内容复制到文件末尾 3.打开命令行,输入如下命令 4.刷新页面即可 要是觉得有效,去给我的博客点个赞可好~~~ "marsggbo的博客园" 微信公众号:AutoML机器学习 MARSGGBO♥原创
阅读全文
posted @ 2017-10-04 13:53 marsggbo
阅读(4420)
评论(3)
推荐(10)
DeepLearning.ai学习笔记(二)改善深层神经网络:超参数调试、正则化以及优化--week3 超参数调试、Batch正则化和程序框架
摘要: 一、调试处理 week2中提到有如下的超参数: α hidden units mini batch size β layers learning rate decay $β_1,β_2,ε$ 颜色表示重要性,以及调试过程中可能会需要修改的程度。 那么如何选择超参数的值呢? 首先是粗略地随机地寻找最优
阅读全文
posted @ 2017-10-04 13:41 marsggbo
阅读(2111)
评论(0)
推荐(1)
2017年10月2日
Pytorch windows10安装教程
摘要: 强烈建议安装anaconda之后再来安装这个pytorch,具体怎么安装百度搜索就知道了。 温馨提示,在安装anaconda的时候记得将“添加到环境变量”(安装的时候是英文的)这一选项选上。 下面假设你已经安装好anaconda了: 1.第一步下载pytorch的安装包: 链接: https://p
阅读全文
posted @ 2017-10-02 18:03 marsggbo
阅读(3347)
评论(0)
推荐(0)
2017年9月26日
【Udacity并行计算课程笔记】- lesson 1 The GPU Programming Model
摘要: 一、传统的提高计算速度的方法 faster clocks (设置更快的时钟) more work over per clock cycle(每个时钟周期做更多的工作) more processors(更多处理器) 二、CPU & GPU CPU 更加侧重执行时间,做到延时小 GPU 则侧重吞吐量,能
阅读全文
posted @ 2017-09-26 21:20 marsggbo
阅读(646)
评论(0)
推荐(0)
2017年9月22日
DeepLearning.ai学习笔记(二)改善深层神经网络:超参数调试、正则化以及优化--Week2优化算法
摘要: 1. Mini batch梯度下降法 介绍 假设我们的数据量非常多,达到了500万以上,那么此时如果按照传统的梯度下降算法,那么训练模型所花费的时间将非常巨大,所以我们对数据做如下处理: 如图所示,我们以1000为单位,将数据进行划分,令$x^{\{1\}}=\{x^{(1)},x^{(2)}……x
阅读全文
posted @ 2017-09-22 22:00 marsggbo
阅读(2983)
评论(1)
推荐(6)
2017年9月10日
DeepLearning.ai学习笔记(二)改善深层神经网络:超参数调试、正则化以及优化--Week1深度学习的实用层面
摘要: 更多笔记请火速前往 "DeepLearning.ai学习笔记汇总" 本周我们将学习 如何配置训练/验证/测试集,如何分析方差&偏差,如何处理高偏差、高方差或者二者共存的问题,如何在神经网络中应用不同的正则化方法(如L2正则化、Dropout),梯度检测 。 一、训练/验证/测试集(Train/dev
阅读全文
posted @ 2017-09-10 17:13 marsggbo
阅读(7759)
评论(0)
推荐(0)
2017年9月3日
DeepLearning.ai学习笔记汇总
摘要: 第一章 神经网络与深度学习(Neural Network & Deeplearning) "DeepLearning.ai学习笔记(一)神经网络和深度学习 Week3浅层神经网络" "DeepLearning.ai学习笔记(一)神经网络和深度学习 Week4深层神经网络" 第二章 改善深层神经网络
阅读全文
posted @ 2017-09-03 20:44 marsggbo
阅读(10193)
评论(1)
推荐(2)
上一页
1
···
30
31
32
33
34
35
36
37
38
···
46
下一页
公告