上一页 1 ··· 196 197 198 199 200 201 202 203 204 ··· 426 下一页
摘要: 当纹理被用于渲染一个面积比它本身小很多的对象时,会由于纹理图像的降采样率不足而导致混叠现象,主要的表现特征是纹理图像的闪烁,出现纹理躁动。特别是在场景远近移动变换时,这种闪烁情况更为明显,严重可能会影响到模型的视觉质量。一个纹理躁动的示例如下:上图中可以看到,近处的场... 阅读全文
posted @ 2016-11-28 22:35 未雨愁眸 阅读(364) 评论(0) 推荐(0)
摘要: 1. 薛定谔之猫薛定谔之碗: They are both broken and not broken until you open the door; 阅读全文
posted @ 2016-11-28 16:52 未雨愁眸 阅读(381) 评论(0) 推荐(0)
摘要: 1. 薛定谔之猫薛定谔之碗: They are both broken and not broken until you open the door; 阅读全文
posted @ 2016-11-28 16:52 未雨愁眸 阅读(186) 评论(0) 推荐(0)
摘要: 之前我们介绍了RNN 网络结构以及其所遇到的问题,RNN 结构对于关联度太长的时序问题可能无法处理, 简单来说,RNN对于太久远的信息不能有效地储存,为了解决这个问题,有人提出了LSTM的网络结构,LSTM 网络结构最早是由 Hochreiter & Schmidh... 阅读全文
posted @ 2016-11-28 16:06 未雨愁眸 阅读(315) 评论(0) 推荐(0)
摘要: 1. CMU-PIEThe CMU Multi-PIE Face Database 750,000 images of 337 people recorded in up to four sessions over the span of five months. ... 阅读全文
posted @ 2016-11-28 14:54 未雨愁眸 阅读(131) 评论(0) 推荐(0)
摘要: 1. CMU-PIEThe CMU Multi-PIE Face Database 750,000 images of 337 people recorded in up to four sessions over the span of five months. ... 阅读全文
posted @ 2016-11-28 14:54 未雨愁眸 阅读(189) 评论(0) 推荐(0)
摘要: Recurrent Neural NetworkLong Short Term Memory Networks (LSTMs) 最近获得越来越多的关注,与传统的前向神经网络 (feedforward network)不同,LSTM 可以对之前的输入有选择的记忆,从而有... 阅读全文
posted @ 2016-11-28 14:06 未雨愁眸 阅读(329) 评论(0) 推荐(0)
摘要: 熵:H(p)=−∑xp(x)logp(x)交叉熵:H(p,q)=−∑xp(x)logq(x)相对熵:KL(p∥q)=−∑xp(x)logq(x)p(x) 相对熵(relative entropy)也叫 KL 散度(KL divergence);用来度量两分布之间的不相... 阅读全文
posted @ 2016-11-27 17:05 未雨愁眸 阅读(984) 评论(0) 推荐(0)
摘要: 熵:H(p)=−∑xp(x)logp(x)交叉熵:H(p,q)=−∑xp(x)logq(x)相对熵:KL(p∥q)=−∑xp(x)logq(x)p(x) 相对熵(relative entropy)也叫 KL 散度(KL divergence);用来度量两分布之间的不相... 阅读全文
posted @ 2016-11-27 17:05 未雨愁眸 阅读(1009) 评论(0) 推荐(0)
摘要: 1. 一种 measurement信息论中,perplexity is a measurement of how well a probability distribution or probability model predicts a sample. 其越低,... 阅读全文
posted @ 2016-11-27 16:19 未雨愁眸 阅读(331) 评论(0) 推荐(0)
上一页 1 ··· 196 197 198 199 200 201 202 203 204 ··· 426 下一页