请注意,该定理仅提供了PAMPAC可学习性的充分条件,并且可能会有其他结果直接对策略空间Γ施加复杂性约束,而不是对Φ施加复杂性约束。现在,我们将使用激励性示例来验证相关政策空间的可学习性。例1(同时离散选择(续))。再次考虑关于同步离散的示例1。在这种情况下,我们有:Φ:={{πk(γ(·);θ)≥ u} :(u,θ)∈ U×Θ},(4.11)在力矩条件下:E{英国≤ πk(z,y)-Kθ)}-max{Lπk(z,y)-Kθ), 0} -0.5{Zk=z,Y-k=y-k}≤ 0,(4.12)E0.5-{英国≤ πk(z,y)-Kθ)}-麦克斯{-Lπk(z,y)-Kθ), 0}{Zk=z,Y-k=y-k}≤ 0,(4.13)对于k=1,K、 尽管如此∈ Z和所有y-k、 y-K∈ YK-1.附录C.1.3中给出了Φ和与上述力矩条件相关的力矩函数类的熵增长条件验证的详细信息。此外,在我们对这个例子的假设下,从定理4.1导出的收敛速度为O(n)-1/2).例2(项目评估(续))。再次考虑关于项目评估的示例2。在这种情况下,我们有:Φ:={{g(γ(z))≥ u} (u)- u) +u:(u,u,u,g)∈ U×G},(4.14)在力矩条件下:E[(D- g(Z,X)){Z=Z,X=X}]≤ 0, Z∈ Z、 x∈ 十、 (4.15)E[(g(Z,X)- D) {Z=Z,X=X}]≤ 0, Z∈ Z、 x∈ 十、 (4.16)E[({U≤ g(z,x)}- g(z,x)){x=x}]≤ 0, Z∈ Z、 x∈ 十、 (4.17)E[(g(z,X)-{U≤ g(z,x)}{x=x}]≤ 0, Z∈ Z、 x∈ 十、 (4.18)E[t(z,X)-{Z=Z,X=X}]≤ 0, Z∈ Z十、∈ 十、 (4.19)E[{Z=Z,X=X}-t(z,x)]≤ 0, Z∈ Z十、∈ 十、 (4.20)和:E“Ud{Z=Z,X=X}Xz∈Zt(z,x)-{X=X}t(z,X)#≤ 0, Z∈ Z、 x∈ 十、 d∈ {0,1},(4.21)E“Ud{X=X}t(z,X)-{Z=Z,X=X}Xz∈Zt(z,x)#≤ 0, Z∈ Z、 x∈ 十、 d∈ {0, 1}.