摘要: #1.信息熵 \(对于信息内容的度量依赖于概率分布p(x),我们想要找到这么一个函数h(x),要满足\) \(1.它是概率p(x)的单调递增函数\) \(2.如果我们有两个不相关的事件x和y,我们观察到两个事件同时发⽣时获得的信息应该等于观察到事件各⾃发⽣时获得的信息之和,即h(x, y) = h( 阅读全文
posted @ 2022-02-18 23:32 筷点雪糕侠 阅读(125) 评论(0) 推荐(0)
摘要: #1.损失函数 \(我们造成了⼀个损失L(t, y(x))。平均损失(或者说期望损失)就是\) \(\mathbb{E}[L]=\int\int L(t,y(x))p(x,t)dxdt\) \(一般损失函数定义为\)平方损失 \(L(t,y(x))=\{y(x)-t\}^2\) \(损失函数可以写成 阅读全文
posted @ 2022-02-18 08:49 筷点雪糕侠 阅读(171) 评论(0) 推荐(0)
摘要: https://biggerhao.github.io/blog/2018/02/PRML-1-88/ 原文回顾 在回归问题中,我们需要选择一个估计函数 \(y(\mathbf{x})\),来对每个输入 \(\mathbf{x}\) 预测其对应的值 \(t\)。这样做就会导致损失 \(L(t, y( 阅读全文
posted @ 2022-02-18 08:21 筷点雪糕侠 阅读(261) 评论(0) 推荐(0)