会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
一扇窗
make something great ! 花苦功夫扎扎实实把每一个细节搞清楚!
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
12
13
14
15
16
2018年3月5日
Week5:Neural Network BackPropagation疑难点记录
摘要: 1.这个neural network 的costfunction 看起来很复杂,其实把连加化简,就是上面的普通代价函数在神经网络的应用,只不过把每一层都加起来了。 为什么要初始化θ值? 后向传播涉及的公式的推导,把这些公式独立推导? 编程过程中的完整矩阵变换怎么变换的?
阅读全文
posted @ 2018-03-05 15:39 dgi
阅读(223)
评论(0)
推荐(0)
2018年3月1日
Week4:Neural Networks难点记录
摘要: 为什么θ的维度是Sj+1*(Sj+1)? 课堂PPT没有两层单元个数不同的状态,故举一个例子就知道了 Example: If layer 1 has 2 input nodes and layer 2 has 4 activation nodes. Dimension of Θ(1) is goin
阅读全文
posted @ 2018-03-01 23:01 dgi
阅读(110)
评论(0)
推荐(0)
2018年2月25日
week3编程作业: Logistic Regression中一些难点的解读
摘要: 难点1:X和theta的维度变化,怎么变得,为什么? X加了一列1,θ加了一行θ0,因为最后边界是θ0+θ1X1+θ2X2,要符合矩阵运算 难点2:costFunction中grad是什么函数,有什么作用? w.r.t 什么意思? 难点3:linear regression的代价函数和logisti
阅读全文
posted @ 2018-02-25 16:34 dgi
阅读(499)
评论(0)
推荐(0)
上一页
1
···
12
13
14
15
16
公告