2020年12月26日
摘要:
https://www.bilibili.com/video/BV184411Q7Ng?p=74 注解: 这是一个230*240的彩色图片。 卷积层相当于做特征,把特征提取出来。 为何函数使用relu(),不是sigmoid()函数了,原因: 1.sigmoid()计算量大。 如果网络深度深的话,在
阅读全文
posted @ 2020-12-26 17:38
一杯明月
阅读(240)
推荐(0)
2020年12月25日
摘要:
https://www.bilibili.com/video/BV184411Q7Ng?p=73 数据集介绍: 1.设计占位符: 注解: [None, 784] 样本数据量未知。[None, 10] 每个样本都有10个类别的概率。 2.设计网络结构: 注解: 最后一层全连接层,[7,7,64]要变成
阅读全文
posted @ 2020-12-25 17:13
一杯明月
阅读(409)
推荐(0)
2020年12月24日
摘要:
https://www.bilibili.com/video/BV184411Q7Ng?p=71 有多少个(对于3通道彩色图像来说,是组)filter,图像的输出通道数就是多少。 步长是1是为了观测更仔细。 卷积神经网络为何不使用之前的sigmoid()函数,而要适用新的relu激活函数呢? 一个卷
阅读全文
posted @ 2020-12-24 22:52
一杯明月
阅读(226)
推荐(0)
摘要:
http://bilibili.com/video/BV184411Q7Ng?p=70 注解: 最后一层一定是全连接层,目的是为了输出类别 假设原始图片是单通道, 100个卷积核去观察,会把图像的通道数变成100. 有多少组filter,就得到多少通道的图像。 本例有两组filter,就得到一个2通
阅读全文
posted @ 2020-12-24 16:50
一杯明月
阅读(184)
推荐(0)
摘要:
注解: 解决的是二分类问题。 逻辑回归的应用场景: sigmoid函数和数轴交叉的位置的值是:0.5
阅读全文
posted @ 2020-12-24 15:58
一杯明月
阅读(241)
推荐(0)
摘要:
保存模型主要指:保存模型训练好的权重。 以房价预测的岭回归为例: #load_boston里面的数值都是连续的 import math from sklearn.datasets import load_boston #从sklearn中的线性模型导入线性回归,SGD随机梯度下降 from skle
阅读全文
posted @ 2020-12-24 15:34
一杯明月
阅读(209)
推荐(0)
摘要:
http://bilibili.com/video/BV184411Q7Ng?p=37 #python岭回归进行房间预测: #load_boston里面的数值都是连续的 from sklearn.datasets import load_boston #从sklearn中的线性模型导入线性回归,SG
阅读全文
posted @ 2020-12-24 14:31
一杯明月
阅读(343)
推荐(0)
2020年12月23日
摘要:
http://bilibili.com/video/BV184411Q7Ng?p=36 图1(欠拟合,习得的特征太少了) 图2(过拟合,习得的特征太多了) 注解: 欠拟合的特点是训练和测试误差都大。 过拟合的特点是训练误差小,测试误差大。 注解: 2.0和10.0代表的是均方误差,即过拟合的特点是训
阅读全文
posted @ 2020-12-23 19:32
一杯明月
阅读(224)
推荐(0)
摘要:
print("%.1f"%abs((y_sgdmethod_predict[i][0]-y_zhengguifunction_predict[i][0])*10),"千元")
阅读全文
posted @ 2020-12-23 18:47
一杯明月
阅读(7246)
推荐(0)
摘要:
不通过正规方程的方式,通过的梯度下降的方式进行房价预测: 如果数据量少,特征数量少,可以用正规方程求解系数和预测值。 如果样本量大,特征数量多,不要用正规方程进行系数求解和预测,最好用梯度下降的方法进行迭代求解。 正规方程与随机梯度下降求得的权重和预测值的差值: #load_boston里面的数值都
阅读全文
posted @ 2020-12-23 15:16
一杯明月
阅读(508)
推荐(0)