博客园 首页 私信博主 显示目录 隐藏目录 管理 凤⭐尘
摘要: 第二周:机器学习策略(2)(ML Strategy (2)) 2.1 进行误差分析(Carrying out error analysis) 进行错误分析,应该找一组错误样本,可能在你的开发集里或者测试集里,观察错误标记的样本,看看假阳性(false positives)和假阴性(false neg 阅读全文
posted @ 2020-01-05 22:08 凤☆尘 阅读(243) 评论(0) 推荐(0)
摘要: 第一周 机器学习(ML)策略(1)(ML strategy(1)) 1.1 为什么是 ML 策略?(Why ML Strategy?) 希望在这门课程中,可以教给一些策略,一些分析机器学习问题的方法,可以指引朝着最有希望的方向前进。这门课中,我会分享我在搭建和部署大量深度学习产品时学到的经验和教训。 阅读全文
posted @ 2020-01-04 23:28 凤☆尘 阅读(339) 评论(0) 推荐(0)
摘要: 【吴恩达课程使用】anaconda (python 3.7) win10安装 tensorflow 1.8 目前tensorflow是只支持到python3.6的,anaconda最新版本已经到python3.7。因为吴恩达课程比较旧一些,这里就配置更加稳定的win10+python3.5+tens 阅读全文
posted @ 2020-01-02 11:52 凤☆尘 阅读(2240) 评论(4) 推荐(0)
摘要: Week 3 Quiz Hyperparameter tuning, Batch Normalization, Programming Frameworks(第三周测验 超参数调整,批量标 准化,编程框架) \1. If searching among a large number of hyper 阅读全文
posted @ 2020-01-02 10:33 凤☆尘 阅读(584) 评论(0) 推荐(0)
摘要: 第三周:超参数调试 、 Batch 正则化和程序框架(Hyperparameter tuning) 3.1 调试处理(Tuning process) 调整超参数,如何选择调试值: 实践中,搜索的可能不止三个超参数,很难预知哪个是最重要的超参数,随机取值而不是网格取值表明,探究了更多重要超参数的潜在值 阅读全文
posted @ 2020-01-01 16:49 凤☆尘 阅读(386) 评论(0) 推荐(0)
摘要: 来源:https://www.jianshu.com/p/c02a1fbffad6 简单易懂的softmax交叉熵损失函数求导 来写一个softmax求导的推导过程,不仅可以给自己理清思路,还可以造福大众,岂不美哉~ softmax经常被添加在分类任务的神经网络中的输出层,神经网络的反向传播中关键的 阅读全文
posted @ 2020-01-01 16:45 凤☆尘 阅读(2445) 评论(0) 推荐(0)
摘要: Week 2 Quiz Optimization algorithms(第二周测验 优化算法) \1. Which notation would you use to denote the 3rd layer’s activations when the input is the 7th examp 阅读全文
posted @ 2019-12-30 21:15 凤☆尘 阅读(758) 评论(0) 推荐(0)
摘要: 第二周:优化算法 (Optimization algorithms) 2.1 Mini batch 梯度下降(Mini batch gradient descent) 如果训练集大小𝑚是 500 万或 5000 万或者更大的 一个数,在对整个训练集执行梯度下降法时,必须处理整个训练集,然后才能进行 阅读全文
posted @ 2019-12-30 00:21 凤☆尘 阅读(388) 评论(0) 推荐(0)
摘要: Week 1 Quiz Practical aspects of deep learning(第一周测验 深度学习的实践) \1. If you have 10,000,000 examples, how would you split the train/dev/test set? (如果你有 1 阅读全文
posted @ 2019-12-24 16:48 凤☆尘 阅读(844) 评论(0) 推荐(0)
摘要: 第一周:深度学习的实践层面 (Practical aspects of Deep Learning) 1.1 训练,验证,测试集(Train / Dev / Test sets) 创建新应用的过程中,不可能从一开始就准确预测出一些信息和其他超级参数,例如:神经网络分多少层;每层含有多少个隐藏单元;学 阅读全文
posted @ 2019-12-23 16:00 凤☆尘 阅读(493) 评论(0) 推荐(0)