03 2019 档案
摘要:在前面的文章中,我们所解决的问题都可以看做是基于高斯过程的回归问题。假设输入为$\{x,y\}_{n=1}^N$,则对于隐变量f有:$f\sim \mathcal{N}(0,K)$,回归问题在于若$y=f+\varepsilon$,$\varepsilon$为服从某正态分布的误差项,在给定任意$x_
阅读全文
摘要:前面的文章大致描述了基于高斯过程(GP)贝叶斯优化的原理框架,该框架中也存在了几个参数,本篇文章简单介绍如何对他们进行估计。 首先介绍一下贝叶斯优化框架的超参数有哪些: 回忆我们将高斯过程表述为以下形式: \[f ( x ) \sim G P \left( m ( x ) , k \left( x
阅读全文
摘要:上节介绍过acquistion function(AC函数)是用来利用之前的信息寻找下一个$x_{t+1}$。下面介绍AC函数的具体形式: 目前主流的AC函数主要有三种Probability of Improvement(PI),Excepted Improvement(EI),GP Upper C
阅读全文
摘要:阅读本文默认具有一定的概率数理统计与随机过程基础。 假设我们有一个机器学习模型M(如XGBoost,SVM,神经网络等),其超参数为记为$x_i$,则每对M进行评估的结果可记为$y_i=f(x_i)$,在这里$y_i$可以是LOSS等评价指标。问题在于如何选择超参数找到我们的最优超参数$x^*$,使
阅读全文
摘要:该文章是针对Hado van Hasselt于2010年提出的Double Q-learning算法的进一步拓展,是结合了DQN网络后,提出的关于DQN的Double Q-learning算法。该算法主要目的是修正DQN中max项所产生的过高估计问题,所谓过高估计,在前面的博客Issues in U
阅读全文
摘要:该篇论文描述了采用函数逼近法进行深度强化学习所遇到的问题,即会产生过高估计。 所谓函数逼近,指的是采用复杂函数估计state-value function值。一般Q-learning有以下表示: \[\mathcal { Q } ( s , a ) \quad - \quad r _ { s } ^
阅读全文

浙公网安备 33010602011771号