好,所以我们现在看了很多这个关于
这个level-k的实验之后呢,我们开始来讲level-k的理论。那一般呢这个被称-
为是这个就是 一开始的就是初始反应的理论。那这个呢跟就是我们一般讲的均衡,是这个经过收敛之后
长期学习的结果这是不太一样的,那另外的就是除了这个
初始反应跟这个均衡之外,当然还有一个是中间的这个收敛的理论,就是
从初始反应到收敛到均衡的这个过程的这个理论,那这个当然就是你可以用
初始反应你用来看一开始的资料,然后用均衡来 来预测最后均衡的结果,那用这个过程这个学习理论来
预测这个收敛的过程,好,那这边我们要来看的几个,第一篇做这样的理论呢是 Stahl and
Wilson是1995年他们就做的,然后我们可以看到是这个2001年Coata-c- omes,Crawford
Broseta这个是 他们一开始做这个他们叫Econometrica的这个然后来分类的,那另外我们会-
看到就是 最近的事哦,一个是所谓的iii那这个是Cognitive Hierarchy那这个是 Camerer和Ho and
Chong 他们在QJE2004年做的。那这一个的假设跟其他 特别不一样所以我们待会会特别提。那另外一个是Coata-comes,
Crawford 这个2006这一篇就是他们在讨论的,好,那所以我们一个一个来看
好,那所以最早的是Stahl Wilson1995年,那他们想的就是好,level0就是乱选
所以就是随机的,那level1呢就是说我认为我的对手在乱选,所以我要对他做出最- 佳的反应
level2是说,认为我的对手是level1,所以我的对手认为我在乱选,所以我要对- 他做出最佳反应
那他们除了这样做,他们有一个是Nash,就是说,认为说我就是相信对手会玩均衡,所以- 我也会做均衡
那另外有一个他们叫Worldly types就是说呢我认为我的对手有可能是level0
有可能是level1,有可能是Nash,所以呢它是某一个分配,那所以我
对这样的分配来做出最佳反应。好,那当然,那这边当然是比较随性这样子
来分,就是为什么一定是0,1跟Nash,为什么不是0,1,2或者是什么,这边 其实是可以讨论,不过,好,不过这是最早的他们做的研究
那这边是他们估计的结果,那我们主要看的是他最后的分配,那所以他这边就是不同的
type的分配在这边,那你会发现说,其实好像有四成以上都是所谓的worldly的这个
这一类,所以他们确实有看到有些人是level 0,1
2,可是就是好像大部分是所谓的worldly
好。那后来有人做的话,哎,其实,我们刚看到做那个 做beauty contest就是Camerer,
Ho & Weigelt那篇也有我们刚也看到他们有去做不同的分类 那好,再来我们要看的是CGCB是Costa-Gomes,
Crawford & Broseta 他们2001年所做的这个分类
好,那这边呢,他们其实是特别设计,他们一共设计了18个就是这个
同时决策的这个赛局,那他们这18个呢是故意要让下面这么多不同的type
都要是有不同的预测 所以最简单的是他们叫Naive就是level1,就是说对手是乱选,所以我要
做出最佳反应,然后第二种就是Altruistic,就是说,哎,这个我希望
极大化,我们两个人报酬的总和,那再来他们有所谓的乐观,超乐观跟
超悲观,那这个乐观的人是maximax就是我认为说我的对手 会希望极大化我的报酬,那我也希望这样做
那悲观的是这个maximin,这个东西我们在这个混合策略均衡 里面有看过,就是说我非常悲观的认为说对手希望极小化
我的报酬,那所以在这么悲惨的情况下,我要怎么样做出最佳反应,好,
那所以这边的话当然就是这是两个极端,就是我认为说对手完成要帮助我,或完全要欺负我
好,另外他们有level2,就是认为对手是Naive,是level2,他们有另外设- 计叫D1跟D2,那这个是
做一次跟两次删除,就是说,D1就是说我会删除这个劣势的策略
然后删一次之后,就在其他剩下策略里面去做一个随机的选择,那D2呢是说
我会帮我自己做一次删除,也帮我对手同时,就是同时都删除这个劣势策略之后
剩下的,那我们剩下的策略里面再看说是不是可以再删除,所以我们要做两次的
删除,那删除之后剩下看他做什么策略或者是说,剩下如果有一个以上我们可能要随机的选择
那另外他们设计的有点像是那个Stahl &
Wilson的这个所谓的wordly type,它叫做复杂就是Sophisticated
type,那复杂的这个呢是说,好,就是我 这个人呢很特别,他好像仿佛是知道说,哎
对手的策略,整个分配是怎么样,那所以他要对整个
这个实际上实验里看到的、观察到的这个分配呢做出一个最佳反应
那当然,这个其实是只有资料才能告诉我们说这个是分配怎么样,那最佳反应是什么,那当然- 他们最后也有
Nash type就是会选择均衡,认为对手是做均衡 所以他也做出均衡反应的这样的人,所以
等于说这18个games的设计故意要让这么多的type每一个的预测都不尽相同
然后希望来区分出,到底,就说人们是属于哪一个类别
好,那他们一共做了3个实验
一个是最基本,就是他们把这个报酬
放在这个荧幕上面,然后你滑鼠要点击,才能够点开这些报酬来知道是什么报酬
那另外一个是说,好,就是所说的Open Box,就是说把这个报酬直接打开来,你不用点就看的到
那这边他希望的是说,好,我们一般的通常是所谓的Open Box,就是不需要打开来
可是他故意把他遮掉,然后要你滑鼠点下去,才打得开,这个是希望透过观察你滑鼠点哪里
来看到说到底,这个,就是你到底是看了哪些资讯来做决定的,那因为你如果觉得对方是乱选
的话,你可以不用看对方的报酬。可是你如果觉得说对方是 要极大化你的报酬,那
对方也要看你的报酬,可是如果对方是认为说你在乱选的话,那他要看他的报酬
然后所以你要看他的报酬,来想他是怎么想,等等,所以这边的话就是说
不同的类别对于说你需要看哪一些报酬是有一些不同的预测,那所以
他有这个就是B这个treatment,就是我要把他遮掉,你要点开来的
那不过当然,他要去比较B跟OB的话,他就知道说就是我做这个,把他报酬
遮掉这个事情到底有什么影响。那另外呢,他有一个是Training,是训练的,就是- 说好,我
就是说我教你,就是透过这一个训练这个实验,教你怎么来
选择均衡,等于说你选的越像均衡预测的话,那你的报酬就越高
那这边就是当然看说,到底人们有无办法学会均衡,就透过他这个训练
好,那他们的结果是什么?第一个是说,那个符合这个所谓的
一次两次跟三次这个删除这个劣势策略,这样子的选择呢
符合一次的有90%,两次的65%
三次的是15%,所以你就发现说这个确实这个
要做这个很多次的删除,做一次还可以,两次说不定一半以上还可以,可是三次以上就是好像
是做不到。那可是呢,如果是在这个训练的这个实验里面
90%以上都可以学会来做均衡,那所以意思是说,你就知道说
哎,等于说我选均衡其实是一个不自然,可是
是可以被学会的,它不是困难的可是它是不自然,那所以这边你就看到就是说,哎
说不定说,我们在不同的实验里面,有的实验看到说大家都选均衡,有的实验看到好像大家不- 是在选均衡
这边有一个很大的可能是说,你如果这个均衡需要 一步两步三步的这个删除才达得到的时候
那个需要的次数越多的时候,那这个均衡就越困难 就越不自然,那所以一下子选到的机会就不太大
对,那这边的话我特别讲,他们给你做18个这个不同的赛局
他是没有告诉你结果的,所以就是做18个,然后都不晓得结果是什么。所以这边都是初始反应
好,那所以这边的话所以这么忙看到说就是好像做这个很多层的删除是很困难
困难的。下面是分类的结果,所以这边的话就是第一个是这个 就是他18个分类,看这边44%是L2
22.7%是所谓的L1或者是Naive,然后呢 有19.5%是D1,另外有少数的均衡跟这个Altruistic
比如有趣的事情来了,这边是只看他的行为,那可是呢他们
不要忘记他们有让他们用去点那个报酬表,用滑鼠把那个
报酬表点开,数字点开来。所以呢他也可以用就是说你滑鼠
有没有点开一些数字来去预测说你是哪一个分类
那这边有趣的事情是说他一旦加上了这个lookup,他看就是说你到底打开
哪几个黑盒子的时候呢,他重新估计。其他大概就没有变,44.1%是L2,然后
这个有少数的什么Altruistic啊什么这些少数的都有,可是有最大的变动是说本来
19.5的D1全部并成是Naive,就是并成L1了。那所以 意思是说呢就是说如果你用点哪里来看的话
真的就是说你要做这种什么几次删除这样的策略,其实是非常非常困难,就是说这个删除的
这个不见得是就是非常不自然的应该这样说
那所以我教你,你大概学得会,可是就是说如果你自己想的时候 你的初始反应,自然的初始反应不会是这样的
好,这边有另外一件事你可注意到是说,这么有一整排是选择不同的类别,就是说你如果是这- 个类别的人的话你的
期望报酬有多少。所以你就会发现说,对,Sophisticated是最高就是我对于这- 个手实际的这个
选择分配作最佳反应,这个期望报酬是24.93。那可是
其实好,我其实只要是level2的话我已经达到24.87了,所以这边有个很大的- 可能是说
没有人百分之百的知道最佳最迟反应是多少,可是呢我只要想两层我就已经很接近这个
最迟反应的话,那其实说不定这样就够了,那因为这样,所以确实有
四成的人是所谓的level2,那你这边现在看到这个level1,就是所谓的Naive
他损失多少,他的平均报酬是21.38,你知道确实这边是有一个差别,那而且呢,这个A- ltruistic
对,就是这个我希望极大化我们两个的报酬的加总,那这个真的是一个
佛心来者,那所以这个期望报酬只有17点多,那还是有少数的人他们坚持就是要
这个利他,要极大化,就是整个社会的报酬
好,那接下来就要看 他们到底是用看哪里来做的,那这边的话就是说不同的
模型都有各自它的预测,就是说你应该要看怎么样看,比如说就是要比较自己的报酬
或者是比较对方的报酬,那你就发现说这边在不同的,比如说在,好
level2的话就是说必须有31%以上是看自己的报酬,又正好是31%看对方
的报酬。那确实是知道上39%是看自己的报酬,然后
30.3%是看对方的报酬,那这边有趣的事情是这样,就是你如果真的看的话
这个原生做均衡的人他们看的东西呢,他们看自己的报酬看的
太少只有21%,那可是呢就是那些在他们这个实验的
训练的那一个实验里面,训练出来做均衡的人那确实 就符合他们的预测。所以这边有趣的事情是说
就是说被训练出来做选择均衡的人跟原生选择均衡的人其实是不太一样的
好,那他们第三个结果是什么呢?他们真的要去看就是说不同的
类别的人是不是真的按照他们所预测的那样去
点击不同的报酬的那个咨询,那所以这边他们有两个标准
一个是有没有点,就是说是不是你要执行这一个类别的思考过程所需要所有的
资讯你是不是都有点到,这个叫做Occurrence。那当然这个如果一个人全部都点开- 来,那当然也都有点到
那所以下一个是比较严格的标准是所谓的Adjacency,就是说我如果说我要比较这个- 报酬跟这个报酬的话,那我应该是
先点这个再点这个,或者是先点这个再点这个。这两个 点击必须是接在一起的
那所以他们就会尝试去报说,就是说给定就是说确实他该
点的都有点到的话,他到底这个 他这么预测应该在一起的点击确实在一起的比例有多少
那好,那这个组那么小当然就不要让你去看,就是说他就是去比较说不同的类别的人
他点击的这个 Occurrence,Adjacency是不是真的去符合就是那一个类别的
那发现说确实大部分来讲,确实是有它的一致性 所以你就知道说,确实这个你点哪里,这个也可以告诉我们你是哪一个类别
那最后的总和分配我已经给你看过了,就是说,有趣的事情就是说是只用选择的时候
有20%的D1,可是呢,就是我一旦把这个
你看哪里这个放进去的话,D1统统变成Naive,变得L1了。
所以你就知道说这个,用删除的这样的想法其实是不太自然的
[无声]