博弈论—扩展式转化为策略式博弈(十五)
博弈的扩展式和策略式是博弈模型的两种表示方式。博弈的扩展式通常用来描述多人博弈中的动态博弈关系,扩展式还包括了博弈的时间序列,即参与者的行动顺序,扩展式(博弈树可视化)有助于理解博弈者如何制定策略以达到最佳结果。策略式是扩展式博弈的一个重要子集,它关注于每个参与者的策略选择以及他们如何根据对手的策略来做出决策。有时为了理论研究,常常借助策略式(入手简单、常用熟悉)表述博弈的结果分析扩展式博弈,这就需要将扩展式博弈转化为策略式表述。
一、行动集
接前博弈论——完全信息动态博弈(五)扩展式结构化描述
可以由终端历史集和局中人函数来推断出这些行动集合。对于一些非终端历史\(h\),如果序列\((h,a)\)是历史,那么\(a\)就是在\(h\)之后采取行动的局中人可选择的行动之一。于是在\(h\)之后采取行动的局中人,他的所有可使用的行动集是:
例如,对于下图中的进入博弈,历史是\(\varnothing\),“进人”,“在外”,(进人,默许),以及(进人,斗争)。于是,对于博弈开始时采取行动的局中人,也就是挑战者,她的可使用行动集为\(A(\varnothing)=\{进人,在外\}\);对于在历史“进人”之后行动的局中人,也就是在位者,他的可使用行动集是\(A(进人)=\{默许,斗争\}\)。
二、信息集
为描述不完全信息展开型博弈,我们必须添加一条:每一个局中人关于在她行动的每一时刻的历史信息的说明。以\(H_i\)表示历史的集合,局中人\(i\)在这之后采取行动。通过将\(H_i\)划分(分隔)为若干信息集的集成来确定局中人\(i\)的信息。这种集成称为局中人\(i\)的信息划分。局中人\(i\)在作出决策时,知道所发生的信息集,但不知道在该信息集中发生的是哪个历史。
如前所述, 将在历史 \(h\) 之后行动的局中人的可使用行动集合记作 \(A(h)\)。只有当 \(A(h)=A\left(h^{\prime}\right)\) 时, 我们认为两个历史 \(h\) 和 \(h^{\prime}\) 在同一个信息集中。为什么呢? 在任何历史之后行动的局中人必须知道在该历史之后她可使用的行动集, 因此如果 \(h\) 和 \(h^{\prime}\) 在同一个信息集中, 并且 \(A(h) \neq\) \(A\left(h^{\prime}\right)\),那么在这个信息集上采取行动的局中人可以通过观察她可使用的行动来推断在这两个历史中发生了哪一个历史。只有当局中人可使用行动集的知识是 \(A(h)=A\left(h^{\prime}\right)\), 那么她自然不会知道已发生的历史是 \(h\) 还是 \(h^{\prime}\) 。如果包含 \(h\) 和 \(h^{\prime}\) 的信息集是 \(I_i\), 那么记 \(A(h)\) 和 \(A\left(h^{\prime}\right)\) 的共同部分为 \(A\left(I_i\right)\) 。也就是说, \(A\left(I_i\right)\) 是局中人 \(i\) 在他的信息集 \(I_i\) 上可供选择的行动集。
如下图所述,在图顶端的小圆圈表示博弈起始点,每一条线描述一个行动;在每个终端历史下方的数字是伯努利盈利,其期望值描述了局中人关于随机结局的偏好。连接B与S的虚线表示这两个历史处于局中人2的同一个信息集中。注意,局中人2在她的信息集内的每个历史上的行动集相同这个条件得到满足:在每个这样的历史之后,局中人2的行动集都是\(\{B,S\}\)。
局中人:两个人,设为 1 和 2 。
终端历史: \((B, B) 、(B, S) 、(S, B)\) 和 \((S, S)\) 。
局中人函数:\(P(\varnothing)=1, P(B)=P(S)=2\) 。
机会行动:无。
信息划分:局中人 1 的信息划分包含了单一的信息集 \(\varnothing(\) 局中人 1 有独自的行动, 并且在行动时她知道博弈正在开始); 局中人 2 的信息划分也包含单一的信息集 \(\{B, S\}\) (局中人 2 有独自的行动, 并且当她行动时, 她不知道历史是 \(B\) 还是 \(S\) )。
偏好:如该情况描述中所给出。
参与人\(i\)信息集\(I_i\)是决策节点的一个集合,满足两个条件:
\(I_i\)中的每个决策节点都是参与人\(i\)决策节点;当博弈到达信息集\(I_i\)时参与人知道自己是在信息集\(I_i\)中的决策节点上,但不知道自己究竟在哪个决策节点上。
| 例1:知道参与人1的选择,不知道参与人2的选择。 | 例2:不知道参与人1的选择,不知道参与人2的选择。 |
|---|---|
![]() |
![]() |
参与人的一个信息集(information set)是一个由他无法区分的决策节点组成的集合。参与人的信息集描述的是当轮到他行动时,他不知道自己位于哪个决策节点上,所有这样的决策节点构成了他的信息集。
三、扩展式博弈完整描述
由于每个决策节点对应着唯一的行动路径(从根节点到该决策节点的路线),因此参与人的每个信息集由他无法区分的所有真子历史(proper subhistories)所对应的决策节点组成。比如给定参与人1的信息集,在该信息集内的每个节点上,他必定有相同的可能行动集。
例3:用一套符号系统表示博弈模型。
\(N=\{1,2\}\)-----(2人,显然是 1,2\()\)
\(A_1=A_2=\{H, T\}----\) (动作,显然只有H和T)
\(H=\{(H, H),(H, T),(T, H),(T, T)\}\)-----(终止历史,也就是所有能走到头的,一个括号里放一个)
\(S_H=\{\varnothing, H, T\}\)-----(真子历史,就是所有没走到头的子历史)
\(P(\varnothing)=1, P(H)=2, P(T)=2---\)-(参与人函数,就是1和2这两个人,是在什么动作之后轮到他们决策的, \(\mathrm{P}\) 后面括号里对应的就是动作)
\(I_i\{\{\varnothing\}\}, I_2\{\{H\},\{T\}\}\)-----(看下角标对应的参与人不能区分的真子历史写上去)
\(u_1(H H)=1, u_1(H T)=-1, u_1(T H)=-1, u_1(T T)=1\)
\(u_2(H H)=-1, u_2(H T)=1, u_2(T H)=1, u_2(T T)=-1---\) (效用函数,一看就懂)
显然,不同参与人的行动集可以从终止历史与参与人函数推到出来。但是为了更容易理解展开型博弈的定义,我们还是将其作为这个定义的组成部分。
如果我现在不知道参与人1的动作集是什么,是否能推用终止历史和参与人函数推出来呢?这里因为\(P(\emptyset )=1\),所以是1先决策,再看参与人函数等号右边也就只有1和2,所以推出来只有1和2两个参与人,所以2肯定是由1采取了什么动作以后才轮到他决策的,从参与人函数里面可以看出来有H和T,所以在1决策完,如果输出了H或者T,那么游戏还继续,但是并不意味着1就只有这两个选择,因为有可能他选了其他可行动作游戏直接结束,轮不到2,所以需要看一眼终止历史,发现1不可能上来就自杀,所以确定1的动作就是H和T。再通过参与人函数看,1只有上去就决策这一项,所以2决策完游戏就结束了,因为1无论做什么都能引出2,所以就直接去终止历史那里看每个括号里的第二项,发现只有H和T。
例4:进入博弈(entry game)
有两个参与人,1和2,参与人1是挑战者,参与人2是在位者,参与人1可以决定挑战在位者,执行“进入”的动作,也可以决定不挑战,执行“不进入”的动作。当挑战者决定进入时,参与人2可以决定斗争,也可以决定容忍,即接受。因此,这个博弈的表示方式如下:
\(N=\{1,2\}-----(\) 参与人,显然1和2)
\(A_1=\{\) 进入, 不进入 \(\}, A_2=\{\) 接受, 斗争 \(\}-----\) (动作集)
\(H=\{(\) 进入, 接受 \()\), (进入, 斗争 \(),(\) 不进入 \()\}----\) (终止历史,与上一个博弈不同的是,这里1可以自杀)
\(S_H=\{\varnothing,(\) 进入 \()\}-----\) (只有空集和1进入之后2决策这一点才是真子历史)
\(P(\varnothing)=1, P(\) 进入 \()=2\)-----(参与人函数,说明1是第一个决策的)
\(I_1=\{\{\varnothing\}\}, I_2=\{\{\) 进入 \(\}\}-----\) (对于1来说, 2 人家好好的在那待着,进攻不进攻是1说了算,所以不存在信息集,对于2来说,1进入还是不进入是不确定的,所以2的决策节点前面的真子集就是2的信息集)
再次注意到,行动集 \(A_1\) 和 \(A_2\) 可从终止历史与参与人函数推导出来。
四、扩展型博弈转换为策略型博弈
策略是博弈论中最重要的概念之一。一个策略(strategy)就是一个完整的行动方案,它规定了参与人在他的每个信息集上将做什么。
信息集: \(I=\left\{I_1, I_2, \ldots, I_N\right\}\) 为所有玩家的信息集, \(I_i=\left\{I_{i1}, I_{i2}, \ldots, I_{in}\right\}\) 为玩家的所有决策节点根据信息的划分。
信息集 \(I_i\) 中的每个元素为到达该玩家某一决策点或多个决策节点,可以使用从根节点到此节点的路径对应表示。在完全信息博弈中每个信息集只包含一个节点。显然信息集中某决策节点在多个路径下候选行动集是相同的,记作 \(A\left(I_{i j}\right)=A(h)=A\left(h^{\prime}\right), h, h^{\prime} \in I_{ij}\) ,因此才无法区分。 \(P\left(I_{i j}\right)\) 为在该处做出决策的玩家。
纯策略(Pure Strategies): 玩家\(i\)的纯策略定义为笛卡尔积 \(a_i \in A\left(I_{i 1}\right) \times A\left(I_{i 2}\right) \times \ldots \times A\left(I_{in}\right)\)。
混合策略(Mixed Strategies): 作用在该玩家纯策略上的概率分布函数。即玩家\(i\)的一系列的概率分布函数 \(\beta_i=\left\{\beta_{i 1}\left(I_{i 1}\right), \beta_{i2}\left(I_{i2}\right), \ldots, \beta_{ini}\left(I_{in}\right)\right\}\) ,其中 \(\beta_{ik}\) 为作用在 \(A\left(I_{i k}\right)\) 行动集上的概率分布函数,其中 \(P\left(I_{i k}\right)=i\)。
例5:分钱博弈(Dividing money game)
玩家1决定怎么分2块钱,玩家2决定是否接受。
玩家1有3个纯策略:(2-0)、(1-1)、(0-2)
玩家2有8个纯策略:nnn,nny,nyn,nyy,ynn,yny,yyn,yyy.(nny表示玩家2拒绝2-0 、1-1的分法,只接受0-2的分法)
纯策略数量:每个信息集的行动集作笛卡尔积。即
例6:动态博弈
玩家1的策略也是4个:\(AG, AH, BG, BH\)(虽然选了A就不可能来到G/H, 即AG AH都是A,但还是算两个)。混合策略、最优反应、纳什均衡等概念都可以类比过来。
例7:展开式博弈转换
| 图1 | 图2 |
|---|---|
![]() |
![]() |
图1中局中人1信息集: \(\mathrm{H}_1=\left\{\mathrm{h}_1\right\}\);
行动集: \(\mathrm{A}\left(\mathrm{h}_1\right)=\{\) 左, 右 \(\}\)
纯策略空间: \(\mathrm{S}_1=\mathrm{A}\left(\mathrm{h}_1\right)=\{\) 左, 右 \(\}\)
局中人2信息集: \(\mathrm{H}_2=\left\{\mathrm{h}_2^1, \mathrm{~h}_2^2\right\}\);
行动集: \(A\left(h_2^1\right)=\{A, B\} ; A\left(h_2^2\right)=\{C, D\}\)
纯策略空间: \(S_2=A\left(h_2^1\right) \times A\left(h_2^2\right)=\{(A, C),(A, D),(B, C),(B, D)\}\)
纯策略组合
收益矩阵
| 玩家1\玩家2 | AC | AD | BC | BD |
|---|---|---|---|---|
| 左 | 3,1 | 3,1 | 5,6 | 5,6 |
| 右 | 4,2 | 2,7 | 4,2 | 2,7 |
图2中局中人 1信息集: \(H_1=\left\{h_1\right\}\);
行动集: \(A\left(h_1\right)=\{\) 左, 右 \(\}\)
纯策略空间: \(\mathrm{S}_1=\mathrm{A}\left(\mathrm{h}_1\right)=\{\) 左, 右 \(\}\)
局中人2信息集: \(H_2=\left\{h_2\right\}\);
行动集: \(A\left(h_2\right)=\{A, B\}\)
纯策略空间: \(\mathrm{S}_2=\mathrm{A}\left(\mathrm{h}_2\right)=\{\mathrm{A}, \mathrm{B}\}\)
纯策略组合
收益矩阵
| 玩家1\玩家2 | A | B |
|---|---|---|
| 左 | 3,1 | 5,6 |
| 右 | 4,2 | 2,7 |
例8:完全信息动态硬币匹配博弈
考虑例3中博弈图的信息集为:\(I_1={\varnothing};I_2=\{{H},{T}\}\)。
参与人1有两个策略:\(S_1=A(I_1)=A(\varnothing)=\{{H},{T}\}\)
参与人2有四个策略:\(S_2=A(I_2)=A(H)\times A(T)=\{HH,HT,TH,TT\}\)
现在参与人1和2的收益由下表描述。例如,当参与人1的策略为H且参与人2的策略为HH时,参与人1和2分别选择H和H,他们的收益分别为1和-1。根据参与人可能选择的策略,可以写出收益矩阵:
| 玩家1/玩家2 | \(HH\) | \(HT\) | \(TH\) | \(TT\) |
|---|---|---|---|---|
| \(H\) | 1,-1 | 1,-1 | -1,1 | -1,1 |
| \(T\) | -1,1 | 1,-1 | -1,1 | 1,-1 |
例9:序贯博弈
| 图3 | 图4 |
|---|---|
![]() |
![]() |
请写出上图3所示的博弈树双方各自的策略。1有2个信息集,第一个信息集有三个行动, 第二个信息集有2个行动。因此共有六个策略。可记参与人 1 的策略集为 \(S_1=\{Aa,Ab,Ba,Bb,Ca,Cb\}\) 。这样表示的含义, 以策略 \(B \boldsymbol{b}\)为例, 表示的是参与人 1 在第一个信息集选行动 \(B\), 第二个信息集选行动 \(\boldsymbol{b}\);同理, 参与人2有两个信息集的策略集可以表示为 \(S_2=\{lL,lR,rL,rR\}\)。
见图4,分析策略组合 \(\{\boldsymbol{Ca}, \boldsymbol{lL}\}\) 对应的博弈路径。参与人在博弈开始首先选择行动 \(C\), 然后到达虚拟参与人结点Chance。在Chance点, 两条路径出现的概率分别为 \(1/4\) 和 \(3/4\), 对应的支付向量分别为 \((0,0)\) 和 \((8,8)\)。故支付向量是上面两项的概率平均值, 为 \((6,6)\) 。这样就构造出如下的收益矩阵:
| 玩家1/玩家2 | \(lL\) | \(lR\) | \(rL\) | \(rR\) |
|---|---|---|---|---|
| \(Aa\) | 4,1 | 4,1 | \(7^*, 2^*\) | \(7,2^*\) |
| \(Ab\) | 4,1 | 4,1 | \(7^*, 2^*\) | \(7,2^*\) |
| \(Ba\) | \(6^*, 3^*\) | \(6^*, 3^*\) | 4,0 | 4,0 |
| \(Bb\) | \(6^*, 3^*\) | \(6^*, 3^*\) | 4,0 | 4,0 |
| \(Ca\) | \(6^*, 6\) | \(8^*, 7^*\) | 6,6 | \(8^*, 7^*\) |
| \(Cb\) | 0,6 | \(2,7^*\) | 0,6 | \(2,7^*\) |
标有星号的元素对应的策略组合为纳什均衡。
例10:考虑以下的三阶段博弈
参与人1在左 \(L_1\)和右\(R_1\)之间进行选择。
参与人2在观察参与人1的选择后:
- 如果参与人1选择左,参与人2在左\(L_2\) 和右\(R_2\)之间选择;
- 如果参与人1选择右,参与人2在\(l_2\)和\(r_2\)之间选择。
如果在前两个阶段中选择了左,那么参与人1在左\(l_1\)和右\(r_1\)之间再次选择,博弈终止;否则博弈直接终止。
| 扩展式 | 策略式 |
|---|---|
![]() |
![]() |
参与人1的策略集
参与人1必须在游戏开始时做出决定;此外,他可能要在第三阶段做出决定。由于参与人1的策略是他可能需要做出决定的所有情况的计划。因此参与人1的策略集是:$$A_1 = { L_1 l_1, L_1 r_1, R_1 l_1, R_1 r_1 }$$
此处的\(L_1 r_1\)表示“参与人1计划在阶段1使用\(L_1\),在阶段3使用\(r_1\)”,其余策略同理。
参与人2的策略集
参与人2在观察到参与人1在第一阶段的选择后,必须在第二阶段做出决定。因此,依照上述讨论,他的策略集是:$$ A_2 = { L_2 l_2, L_2 r_2, R_2 l_2, R_2 r_2 } $$
此处的\(R_2 l_2\)表示“如果参与人1使用了\(L_1\),参与人2打算使用\(R_2\),如果参与人1使用了\(R_1\),参与人2打算使用\(l_2\)”。其余策略同理。
总结
扩展式博弈转为策略式博弈的步骤如下:
找出每个参与人的策略集,该策略集是其信息集划分后的行动集的笛卡尔积,考虑了各种决策行动的可能性;
在扩展式中,找出每个策略组合所对应的行动路径(行动组合);
将终端历史节点旁边的支付数据填入相应策略组合所对应的单元格。
| 图5 | 图6 |
|---|---|
![]() |
![]() |
| 图7 | 图8 |
![]() |
![]() |













浙公网安备 33010602011771号