pgm17

这部分讨论决策理论与 PGM 的关系,一个主要的思路就是将决策与 PGM 的 inference 完美的融合在一起。

MEU

为了引入决策理论中的 maximum expected utility 原则,我们先引入一些概念:

  • lottery(彩票)是一个结果与概率的映射关系,用户对不同的 lottery 的偏好能显示其对风险的不同评估方式
  • 决策问题一般有一组结果 \mathcal{O} = \{ o_1, \ldots, o_N \},一组行为 \mathcal{A} = \{ a_1, \ldots, a_k \},结果的概率模型,即给定某个行为后,得到结果上的一个分布(lottery),一个 utility function,它给出用户对不同结果的偏好

所谓的 MEU 原则是

\displaystyle\max_{a\in\mathcal{A}} \mathbb{E} U(\cdot) = \max_{a\in\mathcal{A}} \sum_{o \in \mathcal{O}} \pi_a (o) U(o)

事实上也有做其他的选择的原则的,比如 min max risk,最大风险最小化

\displaystyle \min_{a \in \mathcal{A}} \max_{o \in\mathcal{O}} -U(o)

我们这里只考虑前者。那么一般说来合理的 utility function 要求满足,

  • orderability,即对任意两个 lottery,或者选其一或者两个倾向一样
  • transitivity,即如果两两比较 \pi_1 \prec \pi_2, \pi_2 \prec \pi_3,则有 \pi_1 \prec \pi_3
  • continuity,即若 \pi_1 \prec \pi_2 \prec \pi_3,则存在 \alpha \in(0, 1) 使得 \pi_2 与 compound lottery [\pi_1 : \alpha, \pi_3: 1 - \alpha]
  • monoticity,若 \pi_1 \succ \pi_2, \alpha \geq \beta,则 [\pi_1: \alpha, \pi_2 : 1 - \alpha] \succ [\pi_1: \beta, \pi_2 : 1 - \beta]
  • substitutability,若 \pi_1 \sim \pi_2,则这两个 lottery 可替换:[\pi_1:\alpha, \pi_3: 1 - \alpha] \sim [\pi_2:\alpha, \pi_3: 1 - \alpha]
  • decomposability,[\pi_1 : \alpha, [\pi_2: \beta, \pi_3: 1 - \beta]: 1 - \alpha] \sim [\pi_1:\alpha, \pi_2:(1 - \alpha)\beta, \pi_3: (1 - \alpha) (1 - \beta)]

可证明对满足以上六点的 lottery 存在 utility function 使得 \pi_1 \succ \pi_2 当且仅当 U(\pi_1) \geq U(\pi_2)。这里 U(\pi) = \sum_{o \in \mathcal{O}} \pi(o) U(o)

一般说来一个 utility function 对 money 的曲线一般是单调增,在正象限是 concave 的,表示 diminishing utility,这一般表示的是 risk averse:即选择带随机的收益和无随机的收益(两者平均 utility 相等)两种 lottery 的时候会倾向后者。与此相反有 risk seeking 和 risk neutral,前者是 convex 的而后者是线性函数。但是很多时候人并不是一成不变或者一味有理智的,他们的 utility function 可能会变化。但是实际情况下的 outcome 可能并不是 money 这么简单,我们往往面对的是多个 attribute 造成的影响建立对应的 utility model。简单的说这是一个多元函数如何能写出表达式的问题。事实上,如果这些 attribute 满足某些性质,我们可以将这个函数 decompose 成为若干 attribute 上各自的 utility。为此我们引入一些概念,

  • X, Y 是 attributes 的一个 partition,称 X 是 preferentially independent of Y,当且仅当对任意 y, y',给定 Y = y 时有 x \succ_y x',当且仅当给定 Y= y' 时也有 x \succ_{y'} x'
  • 以上是说这个 attribute 的 partition 之间有这样一个无关性,其中一个取定不会影响另外一个的 preference,我们可以将其延拓到分布上,为此引入 conditional preference structure,当 (\pi_1^X, 1_y) \prec (\pi_2^X, 1_y) 对任意 y 成立时,记为 \pi_1^X \prec \pi_2^X
  • 这样我们就可以定义 utility independence,即对任意 y, y' 如果两个 lottery 的 preference 是恒定的 \pi_1^X \prec_y \pi_2^X \Leftrightarrow \pi_1^X \prec_{y'} \pi_2^X

可以证明:如果 attributes X 是 utility independent of Y = V - X,当且仅当 U(V) = f(Y) + g(Y) h(X)。这个定理的推论是,如果每个子集 X \subseteq V 满足它和它的补集是 utility independent 的,当且仅当存在以下分解

\displaystyle U(V) = \prod_{i = 1}^k U_i (V_i) + c 或者 \displaystyle U(V) = \sum_{i = 1}^k U_i(V_i)

这也就是说 utility function 的最终形式大约是一个关于 attributes 子集上 utility function 的 multilinear function。如果我们只考虑相加这种形式(后者)往往会降低我们的 utility function modeling power,但是它也有一些自己的特点,比如所谓 additive independence,就是说对任意的 attribute margin 来说发现两个 lottery 的 preference 都是一样的,这种情况下的 utility function 必然能写成每个 attribute 上 utility function 的和。类似我们可以定义 conditional additive independence,这是在给定某个 attribute 值(如 Z)的情况下任两个 lottery 的 preference 在任意两个 margin 上(如 X_i)是一致的,这时的 utility function 会 decompose 成为几个 utility function,即 U(X_i, Z)。事实上我们甚至可以用 MRF 表示 CAI-map,这样 utility function 的 decomposition 也会变成对应几个 clique 上 utility function 的和。事实上上述要求 disjoint attribute 可以被松弛,这称为 generalized additive independence,对应情况下的 utility function 分解仍然成立。

一个基本的求解 MEU 的策略是使用 decision tree,根据每个随机变量的取值进行分叉,最后得到每个 leaf 上的 utility function value,这样一来最优的 decision 就是能导致走到 utility 最高的 leaf 上的策略。而另一种也就是前面提到对 BN 的扩展是在 BN 中加入 decision variable(对应 action)和 utility variable(对应最终的 utility),而原先的 r.v.s 称为 chance variable。这个新的图模型称为 influence diagram。很快我们就可以发现 MEU 实际上就是要求 \max_a U(\pi(u)) \Pr(u \mid a) 或者对应有一定的 observation 时要求 \max_{f(\cdot)} U(\pi(u)) \Pr(u \mid A = f(o))。这里 utility function 是对应节点 u 的父节点的(确定性)函数。影响 action variable 的 edge 也叫 information edge,而我们需要的 decision rule f: \pi(a) \mapsto \mathcal{A}。通常我们求解 MEU 策略和前面的 inference 过程也呈现了某种相似之处。我们分几种情况讨论

  • 如果没有 decision variable,我们只需要 marginalize 所有的东西就得到了 expected utility
  • 如果只有一个 decision variable,记为 D,那么我们可以 marginalize 掉除了 D, \pi(D) 以外的东西,即得到的函数为 \mu(D, \pi(D)),这样取 \delta (\pi(D)) = \arg_D \max \mu(D, \pi(D))
  • 如果有多个,可以采用 iterated optimization algorithm,即每次固定别的 decision rule,更新当前的,这种算法在某些特定条件下能收敛到全局最优,一个充分的条件是满足 perfect recall,即存在某个 r.v.s 的顺序使得按照这个顺序走的时候后面的 decision variable 的 parent 必须在之前的 decision variable 及其 parent 里面。

为了更好地刻画什么时候 local optimal 的 decision 能够导致 global 的 optimal decision,我们需要研究改变某个 decision rule 时如何会不影响到其他的 decision rule(这样各自保持最优),这样以上 iterated optimization algorithm 就能减少迭代次数。为此引入了 strategically relevant 和 s-reachability 的概念,并证明两者的等价,可以证明满足 perfect recall 性质对应的 relevance graph 一定是 acyclic 的。那么实际上如果 relevance graph 本身是 acyclic 的直接用 iterated optimization algorithm 也定能获得最优解。

在 marginalize 其他的 r.v.s 的时候注意到 information edge 的作用(传递有用的 message),而某些信息其实是对 MEU 无用的,这一般是不存在一条 active trail 会产生的现象(此时称为 irrelevant information edge),去掉 irrelevant edge 不会改变 optimal decision。

一个很重要的问题是我们是否能通过某种方式确定某个观测对决定的影响。对单个 decision observation 而言,我们可以使用所谓 value of perfect information 来衡量,即增加一条 information edge 从该 r.v. 到 decision variable 后 MEU 的变化,记为 \mathrm{VPI}(D \mid X),可以证明这个值不小于零。也就是说知道更多决策不会变差。多个的情况会变复杂很多,一般只能用近似。

——————
And it came to pass at that time, that Abimelech and Phichol the chief captain of his host spoke to Abraham, saying, God is with you in all that you do:

posted @ 2014-06-07 22:35  prml  阅读(365)  评论(0编辑  收藏  举报