上一页 1 ··· 80 81 82 83 84 85 86 87 88 ··· 171 下一页
  2020年12月27日
摘要: cmd命令行窗口输入:ipconfig/all 阅读全文
posted @ 2020-12-27 21:59 一杯明月 阅读(421) 评论(0) 推荐(0) 编辑
摘要: https://www.bilibili.com/video/BV184411Q7Ng?p=79 代码示例: """ 写一个线性回归 运用分布式计算机集群进行训练 即:运用多台计算机的cpu和gpu进行参数保存、模型训练和预测 """ import tensorflow as tf """ 定义一个 阅读全文
posted @ 2020-12-27 17:39 一杯明月 阅读(208) 评论(0) 推荐(0) 编辑
摘要: https://www.bilibili.com/video/BV184411Q7Ng?p=78 注解: 参数服务器保存的权重参数不在本地,而在远程服务器上面。 阅读全文
posted @ 2020-12-27 13:11 一杯明月 阅读(371) 评论(0) 推荐(0) 编辑
  2020年12月26日
摘要: https://www.bilibili.com/video/BV184411Q7Ng?p=76 注解: 让交叉熵损失值最小等价于目标值处1对应的概率值最大,直觉上看相当于是强制拟合一个非线性函数,或者说强符合一个非线性函数。 让交叉熵损失值最小等价于目标值处1对应的概率值最大,此时意味着预测值和目 阅读全文
posted @ 2020-12-26 23:27 一杯明月 阅读(271) 评论(0) 推荐(0) 编辑
摘要: https://www.bilibili.com/video/BV184411Q7Ng?p=75 注解: 每个字母输出属于26个字母的概率。 注解: 经过卷积神经网络后,每个样本图片的输出应该是[4*26]个概率值。 注解: a是全连接层之后经过softmax运算后的104个概率值,b是26*4个目 阅读全文
posted @ 2020-12-26 17:54 一杯明月 阅读(80) 评论(0) 推荐(0) 编辑
摘要: https://www.bilibili.com/video/BV184411Q7Ng?p=74 注解: 这是一个230*240的彩色图片。 卷积层相当于做特征,把特征提取出来。 为何函数使用relu(),不是sigmoid()函数了,原因: 1.sigmoid()计算量大。 如果网络深度深的话,在 阅读全文
posted @ 2020-12-26 17:38 一杯明月 阅读(209) 评论(0) 推荐(0) 编辑
  2020年12月25日
摘要: https://www.bilibili.com/video/BV184411Q7Ng?p=73 数据集介绍: 1.设计占位符: 注解: [None, 784] 样本数据量未知。[None, 10] 每个样本都有10个类别的概率。 2.设计网络结构: 注解: 最后一层全连接层,[7,7,64]要变成 阅读全文
posted @ 2020-12-25 17:13 一杯明月 阅读(340) 评论(0) 推荐(0) 编辑
  2020年12月24日
摘要: https://www.bilibili.com/video/BV184411Q7Ng?p=71 有多少个(对于3通道彩色图像来说,是组)filter,图像的输出通道数就是多少。 步长是1是为了观测更仔细。 卷积神经网络为何不使用之前的sigmoid()函数,而要适用新的relu激活函数呢? 一个卷 阅读全文
posted @ 2020-12-24 22:52 一杯明月 阅读(188) 评论(0) 推荐(0) 编辑
摘要: http://bilibili.com/video/BV184411Q7Ng?p=70 注解: 最后一层一定是全连接层,目的是为了输出类别 假设原始图片是单通道, 100个卷积核去观察,会把图像的通道数变成100. 有多少组filter,就得到多少通道的图像。 本例有两组filter,就得到一个2通 阅读全文
posted @ 2020-12-24 16:50 一杯明月 阅读(166) 评论(0) 推荐(0) 编辑
摘要: 注解: 解决的是二分类问题。 逻辑回归的应用场景: sigmoid函数和数轴交叉的位置的值是:0.5 阅读全文
posted @ 2020-12-24 15:58 一杯明月 阅读(221) 评论(0) 推荐(0) 编辑
上一页 1 ··· 80 81 82 83 84 85 86 87 88 ··· 171 下一页