博客园 首页 私信博主 显示目录 隐藏目录 管理 凤⭐尘

随笔分类 -  吴恩达-深度学习课程

吴恩达-深度学习课程
摘要:Week 2 Quiz: Natural Language Processing and Word Embeddings (第二周测验:自然语言处理与词嵌入) 1.Suppose you learn a word embedding for a vocabulary of 10000 words. 阅读全文
posted @ 2020-02-05 11:45 凤☆尘 阅读(1175) 评论(0) 推荐(0)
摘要:【吴恩达课程使用】安装pandas失败 从新开始搭建环境 在第五课第二周的任务2中,虚拟环境缺少pandas,sklearn依赖,因为用pip比较顺手,就直接使用pip安装,结果各种anaconda环境不支持,在自己的再三调试后,整个anaconda环境完全乱掉了!!!遂有下文: 注意:配好之前的环 阅读全文
posted @ 2020-02-04 11:06 凤☆尘 阅读(1413) 评论(0) 推荐(0)
摘要:第二周 自然语言处理与词嵌入(Natural Language Processing and Word Embeddings) 2.1 词汇表征(Word Representation) 词汇表示,目前为止一直都是用词汇表来表示词,上周提到的词汇表,可能是 10000 个单词,我们一直用 one h 阅读全文
posted @ 2020-01-31 20:36 凤☆尘 阅读(667) 评论(0) 推荐(0)
摘要:Week 1 Quiz: Recurrent Neural Networks(第一周测验:循环神经网络) \1. Suppose your training examples are sentences (sequences of words). Which of the following ref 阅读全文
posted @ 2020-01-27 21:40 凤☆尘 阅读(1069) 评论(0) 推荐(0)
摘要:一、确认tensorflow的版本: 接上一条tensorflow的安装,注意版本不匹配会出现很多问题!: "【吴恩达课程使用】anaconda (python 3.7) win10安装 tensorflow 1.8" 源网址:https://docs.floydhub.com/guides/env 阅读全文
posted @ 2020-01-27 21:35 凤☆尘 阅读(1459) 评论(0) 推荐(0)
摘要:机器学习算法推导 矩阵求导中为何会有“转置”? 之前学习神经网络推导的时候,发现在有的求导上最后结果需要转置,而有的不需要,很困惑: 浅层神经网络反向传播的困惑 正向传播: " " 反向传播: 这里为什么要对W进行转置操作?为什么别处有的地方就没有转置操作? 矩阵求导知识 思来想去,突然发现自己对矩 阅读全文
posted @ 2020-01-19 17:06 凤☆尘 阅读(13278) 评论(5) 推荐(8)
摘要:第一周 循环序列模型(Recurrent Neural Networks) 1.1 为什么选择序列模型?(Why Sequence Models?) 1.2 数学符号(Notation) 这个输入数据是 9 个单词组成的序列,所以会有 9 个特征集和来表示这 9 个 单词,并按序列中的位置进行索引, 阅读全文
posted @ 2020-01-14 11:07 凤☆尘 阅读(893) 评论(0) 推荐(0)
摘要:Week2 Autonomous driving (case study) (case study)( 自动驾驶 (案例研究)) \1. To help you practice strategies for machine learning, in this week we’ll present 阅读全文
posted @ 2020-01-06 11:31 凤☆尘 阅读(617) 评论(0) 推荐(0)
摘要:Week1 Bird recognition in the city of Peacetopia (case study)( 和平之城中的鸟类识别(案例研究)) 1.Problem Statement This example is adapted from a real production ap 阅读全文
posted @ 2020-01-06 11:30 凤☆尘 阅读(1083) 评论(0) 推荐(0)
摘要:第二周:机器学习策略(2)(ML Strategy (2)) 2.1 进行误差分析(Carrying out error analysis) 进行错误分析,应该找一组错误样本,可能在你的开发集里或者测试集里,观察错误标记的样本,看看假阳性(false positives)和假阴性(false neg 阅读全文
posted @ 2020-01-05 22:08 凤☆尘 阅读(242) 评论(0) 推荐(0)
摘要:第一周 机器学习(ML)策略(1)(ML strategy(1)) 1.1 为什么是 ML 策略?(Why ML Strategy?) 希望在这门课程中,可以教给一些策略,一些分析机器学习问题的方法,可以指引朝着最有希望的方向前进。这门课中,我会分享我在搭建和部署大量深度学习产品时学到的经验和教训。 阅读全文
posted @ 2020-01-04 23:28 凤☆尘 阅读(338) 评论(0) 推荐(0)
摘要:【吴恩达课程使用】anaconda (python 3.7) win10安装 tensorflow 1.8 目前tensorflow是只支持到python3.6的,anaconda最新版本已经到python3.7。因为吴恩达课程比较旧一些,这里就配置更加稳定的win10+python3.5+tens 阅读全文
posted @ 2020-01-02 11:52 凤☆尘 阅读(2240) 评论(4) 推荐(0)
摘要:Week 3 Quiz Hyperparameter tuning, Batch Normalization, Programming Frameworks(第三周测验 超参数调整,批量标 准化,编程框架) \1. If searching among a large number of hyper 阅读全文
posted @ 2020-01-02 10:33 凤☆尘 阅读(580) 评论(0) 推荐(0)
摘要:第三周:超参数调试 、 Batch 正则化和程序框架(Hyperparameter tuning) 3.1 调试处理(Tuning process) 调整超参数,如何选择调试值: 实践中,搜索的可能不止三个超参数,很难预知哪个是最重要的超参数,随机取值而不是网格取值表明,探究了更多重要超参数的潜在值 阅读全文
posted @ 2020-01-01 16:49 凤☆尘 阅读(385) 评论(0) 推荐(0)
摘要:来源:https://www.jianshu.com/p/c02a1fbffad6 简单易懂的softmax交叉熵损失函数求导 来写一个softmax求导的推导过程,不仅可以给自己理清思路,还可以造福大众,岂不美哉~ softmax经常被添加在分类任务的神经网络中的输出层,神经网络的反向传播中关键的 阅读全文
posted @ 2020-01-01 16:45 凤☆尘 阅读(2442) 评论(0) 推荐(0)
摘要:Week 2 Quiz Optimization algorithms(第二周测验 优化算法) \1. Which notation would you use to denote the 3rd layer’s activations when the input is the 7th examp 阅读全文
posted @ 2019-12-30 21:15 凤☆尘 阅读(758) 评论(0) 推荐(0)
摘要:第二周:优化算法 (Optimization algorithms) 2.1 Mini batch 梯度下降(Mini batch gradient descent) 如果训练集大小𝑚是 500 万或 5000 万或者更大的 一个数,在对整个训练集执行梯度下降法时,必须处理整个训练集,然后才能进行 阅读全文
posted @ 2019-12-30 00:21 凤☆尘 阅读(386) 评论(0) 推荐(0)
摘要:Week 1 Quiz Practical aspects of deep learning(第一周测验 深度学习的实践) \1. If you have 10,000,000 examples, how would you split the train/dev/test set? (如果你有 1 阅读全文
posted @ 2019-12-24 16:48 凤☆尘 阅读(842) 评论(0) 推荐(0)
摘要:第一周:深度学习的实践层面 (Practical aspects of Deep Learning) 1.1 训练,验证,测试集(Train / Dev / Test sets) 创建新应用的过程中,不可能从一开始就准确预测出一些信息和其他超级参数,例如:神经网络分多少层;每层含有多少个隐藏单元;学 阅读全文
posted @ 2019-12-23 16:00 凤☆尘 阅读(491) 评论(0) 推荐(0)
摘要:Week 4 Quiz Key concepts on Deep Neural Networks(第四周 测验 – 深层神经网络) \1. What is the “cache” used for in our implementation of forward propagation and ba 阅读全文
posted @ 2019-12-16 11:17 凤☆尘 阅读(699) 评论(0) 推荐(0)