摘要:
线性回归方程如何计算a和b(y=ax+b) 一、总结 一句话总结: 线性回归方程中的a和b都是有公式求的 二、线性回归方程如何计算a和b(y=ax+b) 博客对应课程的视频位置: 阅读全文
posted @ 2020-07-21 19:44
范仁义
阅读(9611)
评论(0)
推荐(0)
摘要:
【代价函数】均方误差MSE 一、总结 一句话总结: 在线性回归问题中,常常使用MSE(Mean Squared Error)作为loss函数,而在分类问题中常常使用交叉熵作为loss函数。 1、sigmoid激活函数的问题? a、我们可以从sigmoid激活函数的导数特性图中发现,当激活值很大的时候 阅读全文
posted @ 2020-07-21 15:29
范仁义
阅读(1834)
评论(0)
推荐(0)
摘要:
交叉熵损失函数原理详解 一、总结 一句话总结: 1、叉熵损失函数(CrossEntropy Loss):分类问题中经常使用的一种损失函数 2、交叉熵能够衡量同一个随机变量中的两个不同概率分布的差异程度,在机器学习中就表示为真实概率分布与预测概率分布之间的差异。交叉熵的值越小,模型预测效果就越好。 3 阅读全文
posted @ 2020-07-21 15:08
范仁义
阅读(3085)
评论(0)
推荐(1)
摘要:
数学里面期望值是什么?怎么求? 一、总结 一句话总结: 在概率论和统计学中,数学期望(mean)(或均值,亦简称期望)是试验中每次可能结果的概率乘以其结果的总和,是最基本的数学特征之一。它反映随机变量平均取值的大小。 1、数学期望实例? 筛子摇每一个值(1-6)的概率是1/6,则摇到点的期望=1*1 阅读全文
posted @ 2020-07-21 14:44
范仁义
阅读(12288)
评论(0)
推荐(0)
摘要:
tensorflow2知识总结 4、逻辑回归实例 一、总结 一句话总结: 也就是将损失函数设置为binary_crossentropy即可:model.compile(optimizer='adam',loss='binary_crossentropy',metrics=['acc']) 1、把te 阅读全文
posted @ 2020-07-21 13:49
范仁义
阅读(211)
评论(0)
推荐(0)
摘要:
tensorflow2知识总结 3、逻辑回归与交叉熵 一、总结 一句话总结: 1、逻辑回归:线性回归预测的是一个连续值,逻辑回归给出的“是”和“否”的回答 2、交叉熵:交叉熵刻画的是实际输出(概率)与期望输出(概率)的距离,也就是交叉熵的值越小,两个概率分布就越接近。 1、sigmoid函数 和 概 阅读全文
posted @ 2020-07-21 00:51
范仁义
阅读(332)
评论(0)
推荐(0)

浙公网安备 33010602011771号