微信扫一扫打赏支持
上一页 1 ··· 49 50 51 52 53 54 55 56 57 ··· 498 下一页
摘要: 《python深度学习》笔记 3.4、电影评论分类:二分类问题 一、总结 一句话总结: binary_crossentropy损失函数:对于二分类问题的 sigmoid 标量输出,你应该使用 binary_crossentropy 损失函数。 不是越训练越好:随着神经网络在训练数据上的表现越来越好, 阅读全文
posted @ 2020-10-06 15:59 范仁义 阅读(518) 评论(0) 推荐(1)
摘要: 遍历字典的几种方式 一、总结 一句话总结: 遍历字典中的键:普通for.in循环:for i in dic1: 遍历字典中的键:keys方法:for key in dic1.keys(): 遍历字典中的值:values方法:for value in dic1.values(): 遍历字典中的元素:i 阅读全文
posted @ 2020-10-06 15:42 范仁义 阅读(835) 评论(0) 推荐(0)
摘要: setting an array element with a sequence 一、总结 一句话总结: 报错原因:矩阵的列没有对齐,有的多,有的少 二、setting an array element with a sequence 转自或参考: 原因与解决: 矩阵的列没有对齐,一般情况用这个方法 阅读全文
posted @ 2020-10-06 15:39 范仁义 阅读(21741) 评论(0) 推荐(0)
摘要: np.array()和np.asarray()的区别 一、总结 一句话总结: 是否copy:主要区别在于 np.array (默认情况下)将会copy该对象,而 np.asarray 除非必要,否则不会copy该对象。 和array功能相关:y_train = np.asarray(train_la 阅读全文
posted @ 2020-10-06 15:38 范仁义 阅读(4814) 评论(0) 推荐(0)
摘要: Python语句内嵌for-in循环 一、总结 一句话总结: y=[[x]for x in range(100)] reverse_word_index = dict([(value, key) for (key, value) in dict1.items()]) 二、Python语句内嵌for- 阅读全文
posted @ 2020-10-05 20:56 范仁义 阅读(439) 评论(0) 推荐(0)
摘要: 《python深度学习》笔记 3.2-3.3、Keras 简介 一、总结 一句话总结: 不处理张量操作:Keras 是一个模型级(model-level)的库,为开发深度学习模型提供了高层次的构建模块。 它不处理张量操作、求微分等低层次的运算 Keras张量操作由后端引擎实现:Keras 有三个后端 阅读全文
posted @ 2020-10-05 16:15 范仁义 阅读(249) 评论(0) 推荐(0)
摘要: CTC(Connectionist Temporal Classification)介绍 一、总结 一句话总结: CTC,Connectionist Temporal Classification,用来解决输入序列和输出序列难以一一对应的问题。 二、CTC(Connectionist Tempora 阅读全文
posted @ 2020-10-05 12:08 范仁义 阅读(1117) 评论(0) 推荐(0)
摘要: Keras的TimeDistributed层作用 一、总结 一句话总结: 时间维度上全连接:Keras的TimeDistributed层主要用途是在时间维度上进行全连接. 时间维度上切片全连接:一次性输入16×7×7×512,进行全连接,相当于16个时间切片,对每个7×7×512的切片分别进行全连接 阅读全文
posted @ 2020-10-05 12:02 范仁义 阅读(812) 评论(0) 推荐(0)
摘要: 《python深度学习》笔记 3.1、神经网络剖析 一、总结 一句话总结: |||-being 训练神经网络主要围绕以下四个方面,构建好架构,还是非常简单的 |||-end 层,多个层组合成网络(或模型)。 输入数据和相应的目标。 损失函数,即用于学习的反馈信号。 优化器,决定学习过程如何进行。 1 阅读全文
posted @ 2020-10-04 21:56 范仁义 阅读(206) 评论(0) 推荐(0)
摘要: 《python深度学习》笔记 2.4、神经网络的“引擎”:基于梯度的优化 一、总结 一句话总结: 其实真的比较简单,就是损失函数,然后前向传播,反向传播 1、随机初始化(random initialization)? 较小随机数:一开始,这些权重矩阵取较小的随机值,这一步叫作随机初始化(random 阅读全文
posted @ 2020-10-04 19:39 范仁义 阅读(303) 评论(0) 推荐(0)
上一页 1 ··· 49 50 51 52 53 54 55 56 57 ··· 498 下一页