随笔分类 -  machine learning 相关

机器学习相关知识
摘要:如果将所有的Θ初始化为0会怎样? 如果 \[\Theta _{ij}^{\left( l \right)} = 0\] 那么 \[\begin{array}{l}a_1^{\left( 2 \right)} = a_2^{\left( 2 \right)}\\\delta _1^{\left( 2 阅读全文
posted @ 2018-10-29 21:51 qkloveslife 阅读(1141) 评论(0) 推荐(0)
摘要:Numerical estimation of gradients 梯度的数值估计 用公式验证梯度是否正确 \[\frac{d}{{d\theta }}J\left( \theta \right) \approx \frac{{J\left( {\theta + \varepsilon } \rig 阅读全文
posted @ 2018-10-29 21:29 qkloveslife 阅读(255) 评论(0) 推荐(1)
摘要:神经网络的损失函数为 \[J\left( \Theta \right) = - \frac{1}{m}\left[ {\sum\limits_{i = 1}^m {\sum\limits_{k = 1}^k {y_k^{\left( i \right)}\log {{\left( {{h_\Thet 阅读全文
posted @ 2018-10-29 19:49 qkloveslife 阅读(247) 评论(0) 推荐(0)
摘要:符号: \[\left\{ {\left( {{x^{\left( 1 \right)}},{y^{\left( 1 \right)}}} \right),\left( {{x^{\left( 2 \right)}},{y^{\left( 2 \right)}}} \right),...,\left 阅读全文
posted @ 2018-10-29 19:25 qkloveslife 阅读(1256) 评论(0) 推荐(0)
摘要:多输出神经网络如图 输出层有多个神经元 这时,h(x)是一个向量。 当运用在图像识别领域时 如果输出是 \[{h_\Theta }\left( x \right) = \left[ {\begin{array}{*{20}{c}}1\\0\\0\end{array}} \right]\] 分类为“行 阅读全文
posted @ 2018-10-29 16:53 qkloveslife 阅读(2780) 评论(0) 推荐(0)
摘要:首先介绍“和”操作 x1, x2 ∈ {0, 1} y = x1 AND x2 有 \[{h_\theta }\left( x \right) = g\left( { - 30 + 20{x_1} + 20{x_2}} \right)\] 其中g()是sigmoid函数,其图示如下 当z=4.6时, 阅读全文
posted @ 2018-10-29 16:36 qkloveslife 阅读(1738) 评论(0) 推荐(0)
摘要:当特征的数量很多的时候,逻辑回归在分类问题上就难以发挥了,这时需要运用神经网络。 神经网络的起源 Origins: Algorithms that try to mimic the brain. Was very widely used in 80s ans early 90s; popularit 阅读全文
posted @ 2018-10-28 21:59 qkloveslife 阅读(301) 评论(0) 推荐(0)
摘要:线性回归的代价函数正则化后为 \[J\left( \theta \right){\rm{ = }}\frac{{\rm{1}}}{{{\rm{2}}m}}\left[ {\sum\limits_{i = 1}^m {{{\left( {{h_\theta }\left( {{x^{\left( i 阅读全文
posted @ 2018-10-28 18:36 qkloveslife 阅读(718) 评论(0) 推荐(0)
摘要:逻辑回归的代价函数为 \[J\left( \theta \right) = - \left[ {\frac{1}{m}\sum\limits_{i = 1}^m {{y^{\left( i \right)}}\log {h_\theta }\left( {{x^{\left( i \right)}} 阅读全文
posted @ 2018-10-28 18:32 qkloveslife 阅读(714) 评论(0) 推荐(0)
摘要:线性回归例子 如果 \[{h_\theta }\left( x \right) = {\theta _0} + {\theta _1}x\] 通过线性回归得到的曲线可能如下图 这种情况下,曲线对数据的拟合程度不好。这种情况称为“Underfit”,这种情况属于“High bias”(高偏差)。 如果 阅读全文
posted @ 2018-10-26 21:22 qkloveslife 阅读(1397) 评论(0) 推荐(2)
摘要:多分类问题 将邮件分为不同类别/标签:工作(y=1),朋友(y=2),家庭(y=3),爱好(y=4) 天气分类:晴天(y=1),多云天(y=2),下雨天(y=3),下雪天(y=4) 医学图示(Medical diagrams):没生病(y=1),感冒(y=2),流感(y=3) 二分类问题的示意图如下 阅读全文
posted @ 2018-10-26 20:16 qkloveslife 阅读(6710) 评论(0) 推荐(0)
摘要:问题: 给出代价函数J(θ),需要最小化J(θ) 给出初始θ后,我们需要反复计算 \[J\left( \theta \right)\] \[\frac{\partial }{{\partial {\theta _j}}}J\left( \theta \right)\] 梯度下降算法: 重复{ \[{ 阅读全文
posted @ 2018-10-25 18:58 qkloveslife 阅读(394) 评论(0) 推荐(0)
摘要:逻辑回归的代价函数 \[J\left( \theta \right) = - \frac{1}{m}[\sum\limits_{i = 1}^m {{y^{\left( i \right)}}\log \left( {{h_\theta }\left( {{x^{\left( i \right)}} 阅读全文
posted @ 2018-10-25 18:47 qkloveslife 阅读(483) 评论(0) 推荐(0)
摘要:训练集:\[\left\{ {\left( {{x^{\left( 1 \right)}},{y^{\left( 1 \right)}}} \right),\left( {{x^{\left( 2 \right)}},{y^{\left( 2 \right)}}} \right),...,\left 阅读全文
posted @ 2018-10-25 18:22 qkloveslife 阅读(1624) 评论(0) 推荐(0)
摘要:逻辑回归模型 如何定义hθ(x),使得0≤hθ(x)≤1 令 \[{h_\theta }(x) = g\left( {{\theta ^T}x} \right)\] 其中g(x)称为Sigmoid function或logistic function \[g\left( z \right) = \f 阅读全文
posted @ 2018-10-25 16:33 qkloveslife 阅读(357) 评论(0) 推荐(0)
摘要:分类问题举例(Classification) Email: Spam / Not Spam? 判断邮件是不是垃圾邮件 Online Transactions: Fraudulent(Yes / No)? 在线交易是不是欺诈 Tumor: Malignant / Benign? 肿瘤是良性还是恶性 二 阅读全文
posted @ 2018-10-25 11:01 qkloveslife 阅读(266) 评论(0) 推荐(0)
摘要:Normal equation: Method to solve for θ analytically 正规方程:分析求解θ的方法 对于损失函数 \[J\left( {{\theta _0},{\theta _1},...,{\theta _n}} \right) = \frac{1}{{2m}}\ 阅读全文
posted @ 2018-10-23 22:39 qkloveslife 阅读(294) 评论(0) 推荐(0)
摘要:Features and Polynomial Regression We can improve our features and the form of our hypothesis function in a couple different ways. 我们可以通过几种不同的方式改进我们的特 阅读全文
posted @ 2018-10-23 21:15 qkloveslife 阅读(232) 评论(0) 推荐(0)
摘要:“Debugging”: How to make sure gradient descent is working correctly 怎样确保梯度下降算法正确的运行 迭代次数从100-200时,损失函数变化较大; 迭代次数从300-400时,损失函数变化不大,说明算法在300处开始收敛 通过画出损 阅读全文
posted @ 2018-10-23 20:17 qkloveslife 阅读(854) 评论(0) 推荐(0)
摘要:Feature Scalling Idea: Make sure features are on a similar scale 特征缩放 想法:确保所有的特征在相似的范围 为什么进行特征缩放? 例如:x1 = size (0-2000 feet2) x2 = number of bedrooms 阅读全文
posted @ 2018-10-22 21:45 qkloveslife 阅读(869) 评论(0) 推荐(0)