上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 72 下一页
摘要: 参考文献:Hands On Machine Learning with Scikit Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems 由于模型中存在regulariz 阅读全文
posted @ 2020-04-22 19:54 2021年的顺遂平安君 阅读(283) 评论(0) 推荐(0) 编辑
摘要: Loss函数 定义: 用法很简单,就是计算均方误差平均值,例如 Metrics函数 Metrics函数也用于计算误差,但是功能比Loss函数要复杂。 定义 这个定义过于简单,举例说明 输出结果 这个结果等价于 这是因为Metrics函数是 状态函数 ,在神经网络训练过程中会持续不断地更新状态,是有记 阅读全文
posted @ 2020-04-22 19:17 2021年的顺遂平安君 阅读(5081) 评论(0) 推荐(0) 编辑
摘要: Loss函数 定义: keras.losses.mean_squared_error(y_true, y_pred) 用法很简单,就是计算均方误差平均值,例如 loss_fn = keras.losses.mean_squared_error a... 阅读全文
posted @ 2020-04-22 19:17 2021年的顺遂平安君 阅读(125) 评论(0) 推荐(0) 编辑
摘要: with tf.GradientTape(persistent=True) as tape: z1 = f(w1, w2 + 2.) z2 = f(w1, w2 + 5.) z3 = f(w1, w2 + 7.) z = [z1,z... 阅读全文
posted @ 2020-04-22 17:00 2021年的顺遂平安君 阅读(77) 评论(0) 推荐(0) 编辑
摘要: 输出结果 输出结果 总结:如果对一个list 求微分,其结果将 自动求和 ,而不是返回 、`z2 z3 [w1,w2]`的微分。 阅读全文
posted @ 2020-04-22 17:00 2021年的顺遂平安君 阅读(332) 评论(0) 推荐(0) 编辑
摘要: ``` A = np.matrix('3 1; 8 2') B = np.matrix('6 1; 7 9') ``` ``` A@B matrix([[25, 12], [62, 26]]) ``` 阅读全文
posted @ 2020-04-22 16:30 2021年的顺遂平安君 阅读(1347) 评论(0) 推荐(0) 编辑
摘要: A = np.matrix('3 1; 8 2')B = np.matrix('6 1; 7 9') A@Bmatrix([[25, 12], [62, 26]]) 阅读全文
posted @ 2020-04-22 16:30 2021年的顺遂平安君 阅读(134) 评论(0) 推荐(0) 编辑
摘要: 自定义损失函数 In statistics, the Huber loss is a loss function used in robust regression, that is less sensitive to outliers in data ... 阅读全文
posted @ 2020-04-21 18:01 2021年的顺遂平安君 阅读(81) 评论(0) 推荐(0) 编辑
摘要: 自定义损失函数 In statistics, the Huber loss is a loss function used in robust regression, that is less sensitive to outliers in data than the squared error 阅读全文
posted @ 2020-04-21 18:01 2021年的顺遂平安君 阅读(3326) 评论(0) 推荐(0) 编辑
摘要: 输出结果 注意:如果key相同,第二个dict的item会覆盖第一个dict的item。 阅读全文
posted @ 2020-04-21 17:15 2021年的顺遂平安君 阅读(233) 评论(0) 推荐(0) 编辑
上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 72 下一页