上一页 1 ··· 55 56 57 58 59 60 61 62 63 ··· 178 下一页
  2021年10月22日
摘要: 神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili 注解: 1.非线性的问题假如用线性方程去拟合,那会出现欠拟合的情况。 2.解决办法就是用Ф(X)代替X,如下图: 注解: 1.依然可以把多项式回归模型写成线性的形式y=wTФ(x),有了这样一个线性形式的话,就可以利用线性 阅读全文
posted @ 2021-10-22 12:10 一杯明月 阅读(605) 评论(0) 推荐(0)
  2021年10月21日
摘要: 神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili 注解: 1.在这个例子中,x是个一维的标量,在很多问题中,x是一个一维的向量。 注解: 1.如果不加偏置,相当于模型穿过原点,如果加上偏置,相当于直线上移了一点。 2.可以通过增广的权重向量和增广的特征向量把在形式上b消除 阅读全文
posted @ 2021-10-21 21:07 一杯明月 阅读(515) 评论(0) 推荐(0)
摘要: 神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili 上一讲说模型迭代的时候要在验证集上错误率不再下降为止,为何要强调是验证集,而不是训练集呢?这就涉及到模型的泛化和正则化。 注解: 1.欠拟合:直线。 2.正常:二次曲线。 3.过拟合:比二次曲线复杂的曲线(增加了模型的复杂 阅读全文
posted @ 2021-10-21 14:27 一杯明月 阅读(289) 评论(0) 推荐(0)
摘要: 神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili 注解: 1.在假定的空间中建立一个最优的模型,利用这个模型建立x和y之间的关系。 2.需要有一个准则来判断学习到的模型是好是坏。 注解: 1.左边是线性模型,右边是非线性模型。 注解: 1.函数的预测值f(x,θ*)与真实 阅读全文
posted @ 2021-10-21 00:54 一杯明月 阅读(192) 评论(0) 推荐(0)
  2021年10月20日
摘要: 神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili 本节知识点:哪些事情的预测属于机器学习? 注解: 1.这个问题的输出是一个连续值,这样的问题都称为回归问题。 注解: 1.这个问题的输出的也是一个连续值,这样的问题都称为回归问题。 注解: 1.这个问题的输出的也是一个连续 阅读全文
posted @ 2021-10-20 18:39 一杯明月 阅读(108) 评论(0) 推荐(0)
摘要: 注解: 1.对于声音识别和手写数字识别,人类很难(特别难)通过总结某种规则用程序实现声音识别和手写数字识别。 2.所以,需要通过构造很多很多的训练样本,训练神经网络,让计算机(某个神经网络)去总结规则,实现声音识别或者手写数字识别,这就是需要利用机器学习的原因。 注解: 1.机器学习不是说在训练数据 阅读全文
posted @ 2021-10-20 18:00 一杯明月 阅读(74) 评论(0) 推荐(0)
摘要: 注解: 1.随机变量和随机事件不等价,一个随机事件可以定义很多随机变量。 2.随机变量是定义在一个随机事件里面的变量,可以有很多种定义方法,比如可以定义出现某一个值的概率,也可以定义出现奇数的概率。 3.概率分布就是所定义的一个随机变量取所有可能值的概率的一个表。对于离散型的随机变量来说,概率分布就 阅读全文
posted @ 2021-10-20 12:25 一杯明月 阅读(892) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2021-10-20 11:08 一杯明月 阅读(59) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2021-10-20 11:07 一杯明月 阅读(70) 评论(0) 推荐(0)
  2021年10月19日
摘要: 神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili axon 英 [ˈæksɒn] 美 [ˈæksɑːn] n. 轴索,[解剖]轴突(神经细胞) telodendria 终端(树)突 nucleus 英 [ˈnjuːkliəs] 美 [ˈnuːkliəs] n. 原子核;细 阅读全文
posted @ 2021-10-19 21:41 一杯明月 阅读(453) 评论(0) 推荐(0)
上一页 1 ··· 55 56 57 58 59 60 61 62 63 ··· 178 下一页