摘要: 以如下模型为例, 两个Dense层都带有regularizer,因此都有regularization loss项。 访问 可以得到当前的regularization loss 当前状态下第一层和第二层的regularization loss分别是0.07213736和0.06456626。 下面验证 阅读全文
posted @ 2020-04-22 20:13 2021年的顺遂平安君 阅读(1463) 评论(0) 推荐(0)
摘要: 以如下模型为例, l2_reg = keras.regularizers.l2(0.05)model = keras.models.Sequential([ keras.layers.Dense(30, activation="elu", kern... 阅读全文
posted @ 2020-04-22 20:13 2021年的顺遂平安君 阅读(108) 评论(0) 推荐(0)
摘要: 参考文献:Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Sy... 阅读全文
posted @ 2020-04-22 19:54 2021年的顺遂平安君 阅读(71) 评论(0) 推荐(0)
摘要: 参考文献:Hands On Machine Learning with Scikit Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems 由于模型中存在regulariz 阅读全文
posted @ 2020-04-22 19:54 2021年的顺遂平安君 阅读(294) 评论(0) 推荐(0)
摘要: Loss函数 定义: 用法很简单,就是计算均方误差平均值,例如 Metrics函数 Metrics函数也用于计算误差,但是功能比Loss函数要复杂。 定义 这个定义过于简单,举例说明 输出结果 这个结果等价于 这是因为Metrics函数是 状态函数 ,在神经网络训练过程中会持续不断地更新状态,是有记 阅读全文
posted @ 2020-04-22 19:17 2021年的顺遂平安君 阅读(5212) 评论(0) 推荐(0)
摘要: Loss函数 定义: keras.losses.mean_squared_error(y_true, y_pred) 用法很简单,就是计算均方误差平均值,例如 loss_fn = keras.losses.mean_squared_error a... 阅读全文
posted @ 2020-04-22 19:17 2021年的顺遂平安君 阅读(152) 评论(0) 推荐(0)
摘要: with tf.GradientTape(persistent=True) as tape: z1 = f(w1, w2 + 2.) z2 = f(w1, w2 + 5.) z3 = f(w1, w2 + 7.) z = [z1,z... 阅读全文
posted @ 2020-04-22 17:00 2021年的顺遂平安君 阅读(83) 评论(0) 推荐(0)
摘要: 输出结果 输出结果 总结:如果对一个list 求微分,其结果将 自动求和 ,而不是返回 、`z2 z3 [w1,w2]`的微分。 阅读全文
posted @ 2020-04-22 17:00 2021年的顺遂平安君 阅读(340) 评论(0) 推荐(0)
摘要: ``` A = np.matrix('3 1; 8 2') B = np.matrix('6 1; 7 9') ``` ``` A@B matrix([[25, 12], [62, 26]]) ``` 阅读全文
posted @ 2020-04-22 16:30 2021年的顺遂平安君 阅读(1372) 评论(0) 推荐(0)
摘要: A = np.matrix('3 1; 8 2')B = np.matrix('6 1; 7 9') A@Bmatrix([[25, 12], [62, 26]]) 阅读全文
posted @ 2020-04-22 16:30 2021年的顺遂平安君 阅读(152) 评论(0) 推荐(0)