CURSO DE TEORÍA DE JUEGOS I

April 2, 2018 | Author: triad87 | Category: Adverse Selection, Monopoly, Prices, Market (Economics), Microeconomics


Comments



Description

SERGIO MONSALVE SEMESTRE II DE 20111 Clase Magistral #1. JUEGOS DE SUMA CERO Clase Magistral #2. JUEGOS NO-COOPERATIVOS (I) NOClase Magistral #3. JUEGOS NO-COOPERATIVOS (II) NOClase Magistral #4. JUEGOS NO-COOPERATIVOS (III) NOClase Magistral #5. JUEGOS NO-COOPERATIVOS (IV) NOClase Magistral #6. JUEGOS REPETIDOS Clase Magistral #7. JUEGOS COALICIONALES (I) Clase Magistral #8. JUEGOS COALICIONALES (II) 2 PROGRAMA DEL CURSO (Continuación) Clase Magistral #9. JUEGOS DE NEGOCIACIÓN (I) Clase Magistral #10. JUEGOS DE NEGOCIACIÓN (II) Clase Magistral #11. INFORMACIÓN ASIMÉTRICA (I) Clase Magistral #12. INFORMACIÓN ASIMÉTRICA (II) Clase Magistral #13. JUEGOS EVOLUTIVOS (I) Clase Magistral #14. JUEGOS EVOLUTIVOS (II) Clase Magistral #15. MODELOS DE COMPLEJIDAD 3 JUEGOS COALICIONALES (I) 4 Comienzo esta sesión con una historia aparecida www.lasillavacia.com (Marcela Eslava, U. de los Andes): en ³En un pueblo costero de pescadores dedicados a recoger langostinos, un visitante foráneo se asombra al ver que los miembros de la comunidad que consumen este producto lo adquieren en el supermercado y a un precio tan alto como el que se paga en el mercado internacional. --¿Por qué no simplemente consumen lo que pescan? Les saldría gratis,-- interroga el visitante al sabio del pueblo. El viejo le explica que los pescadores están reunidos en una cooperativa, que exporta el producto al mercado en el que encuentra el precio más alto. Quien lo quiera comprar en el pueblo debe pagar ese precio, para que no se pierda la oportunidad de vender a ese nivel. -Pero, eso es absurdo-- dice el forastero, jalándose el pelo. ± No tiene ningún sentido que una comunidad que produce algo tan bueno lo tenga que pagar carísimo. Seguro que algunos ni siquiera lo pueden consumir a ese precio. ¡Y teniéndolo tan a la mano!. 5 podemos repartir los buenos ingresos entre todos. así fuera en el pueblo y a malos precios. Los más pobres de cualquier manera escogerían vender el langostino. --Si vendemos el producto afuera. Ellos.El anciano sonríe y se da a la tarea de explicarle al forastero lo que los habitantes del pueblo hace rato entendieron. que son la mayoría. en el mercado donde esté más caro. pues no se pueden dar el lujo de comerse la pesca y dejar de percibir los ingresos que les permiten consumir productos más básicos. claramente salen ganando si en lugar de repartirnos el producto lo vendemos bien caro. 6 . ´ 7 . Así buscan buenas soluciones que favorecen a la mayoría.-. ¡Qué fácil dejarse engañar por lo que parecía tan obvio.Los más ricos sí pierden algo con esta estrategia: ellos siempre consumen langostino.El visitante se ríe de si mismo. Pero como igual también compran otras muchas cosas. y les toca pagarlo más caro que si nos consumiéramos lo pescado. pues recibir buenos ingresos por la venta cara del langostino al final también los beneficia. no mirar los lados menos evidentes de la historia! Se alegra de que en el pueblo las decisiones las tomen representantes bien asesorados y elegidos por un mecanismo de voto popular. Y ni los ricos ni los pobres podrían hacer la exportación de manera individual. Juegos Cooperativos o Coalicionales 8 . JUEGOS COALICIONALES (II) 9 . L. sino que éstos sean sensibles únicamente a cómo la función característica responde a la presencia de un jugador en una coalición. que obedece tres axiomas: 1. 10 .v) como una distribución de pagos ( i (v))i N (donde i (v) es el pago recibido por el jugador i N). El axioma de simetría. que requiere que los nombres de los jugadores no tengan ningún rol al determinar sus pagos. Shapley (1953) definió un valor para un juego coalicional (N. 11 . 2. que exige que el valor de Shapley sea ³aditivo´ entre diferentes juegos. El axioma de aditividad. El axioma de eficiencia. el axioma de simetría requiere que los nombres de los jugadores que son tratados idénticamente por la función característica sean tratados idénticamente por el valor de Shapley.En particular. es la verdadera fuerza conducente de la unicidad del valor de Shapley sobre el espacio de juegos coalicionales que satisfacen los otros dos axiomas. que especifica cómo los valores de los diferentes juegos deben relacionarse unos con otros. 3. sea igual al pago de la gran coalición. Este axioma. que exige que la suma total de las asignaciones sobre los jugadores. donde la distribución de coaliciones surge de una forma muy particular: 12 . Shapley (1953) probó que su valor podía ser interpretado como la contribución marginal esperada del jugador i. s es el cardinal de S. y n es el cardinal de N De hecho. Aquí.Shapley demostró que estos pagos están dados por la fórmula i (v)= ™S N [(s-1)!(n-s)!/n!] [v(S)-v(S-i)] que muestra una suma ponderada de las contribuciones marginales del jugador i a todas las subcoaliciones. es (s-1)!(n-s)!/n! pues: 13 . y notemos que la probabilidad de que el jugador i entre en el salón y encuentre exactamente a los jugadores de S-{i }. considere cualquier coalición S a la que pertenece i. y que todos los n! órdenes de los jugadores en N son igualmente probables.Supongamos que los jugadores entran en un salón en cierto orden. Para ver esto. Entonces i (v) es la contribución marginal esperada por el jugador i cuando le corresponde entrar al salón. allí en el salón. los jugadores S-i preceden a i. hay (s-1)! órdenes diferentes en los que los primeros s-1 jugadores pueden preceder a i. precisamente. y (n-s)! órdenes diferentes en los que los restantes n-s jugadores pueden seguir después de i. un útil artificio computacional. 14 . Pensar en el valor de Shapley en esta forma es. normalmente. para un total de (s-1)!(n-s)! permutaciones en las que.De las n! permutaciones de N. el primer comprador valora en $200. esta situación puede modelarse como un juego coalicional.000.Consideremos la interacción entre un vendedor potencial y dos compradores potenciales de cierto objeto que el vendedor (que es su actual propietario) valora en $100.000 y el segundo comprador en $300. de la siguiente forma: 15 . Si los jugadores pueden transferir dinero entre ellos sin ningún problema y si son riesgo-neutrales.000. 3)=0.3)=v(1.3} v(1)=100.000. Una colección que contiene al jugador 1 es valorada en el máximo que el objeto en cuestión vale para los miembros de la coalición.2. v(1. v(2)=v(3)=v(2.N={1.000 Esto refleja el hecho de que solo las coaliciones que contienen al vendedor (jugador 1) y al menos a un comprador pueden llevar a cabo transacciones que cambien la riqueza colectiva.2. 16 . v(1.3)=300.000.2)=200. 000.y. 17 .000 Y esto nos lleva a que: x• 200.000) y del segundo comprador ($300.Inicialmente.000 Esto corresponde a lo que se esperaría si los compradores compitieran uno con otro en una subasta: el vendedor le vende el objeto al comprador que más lo valora (el segundo comprador 2) a un precio entre la valoración del primer comprador ($200.000.x x+z • 300.y.000 . y=0.z) x • 100.000 .000).z) (•0 ) está en el núcleo si y solo si: x. x+y+z = 300. x+y • 200. z=300. calculamos el núcleo de esta economía: (x. 3 en la primera columna.1 v(1) v(1) v(12)-v(2) v(123)-v(23) v(13)-v(3) v(123)-v(23) ¨2 v(12)-v(1) v(123)-v(13) v(2) v(2) v(123)-v(13) v(23)-v(3) ¨3 v(123)-v(1. después 2 y luego 3.2 3.3.2.3.2.1 3. el valor de Shapley de este juego lo construimos a través de la tabla siguiente: ¨1 1. significa que primero llega 1 al salón.1.2) v(1. 18 .3)-v(1) v(123)-v(12) v(2.3 1.3 2.1. 1.3)-v(2) v(3) v(3) Aquí.Por su parte.2 2.2. por ejemplo. 000 0 0 0 3= 100.000 200.Y así el valor de Shapley de este juego es: ¨1 1.1.1 1= ¨2 100.000 200.000 300.000 / 6 400.000 100.3.000 / 6 19 .2 3.3.2 2.2.000 300.3 2.1 3.000 1¶300.3 1.2.000 0 0 0 0 0 2= ¨3 100.1.000 300.000 / 6 100.000 100. V(S) es el conjunto de posibles distribuciones de pagos de los miembros de S .n} es el conjunto de jugadores. y i es una relación de preferencia del agente i sobre X. i ) donde N={1.Un juego coalicional sin utilidad trasferible (UNT) es una tripla (N.V.«. 20 . y la función característica V está definida así: V S ( N) V(S) ( X) Aquí.2. V. con xj=0 si j iii) x i y si.v) se puede ver como un juego coalicional NUT (N. xi ” yi . así: i) X= N ii) Para cada coalición S se tiene que V(S) = {x =(xi) N/ ™i S xi =v(S). UNT UT N-S } 21 . y solo si. i ) .Cada juego coalicional UT (N. 3) = {(x1.2) = {(x1 . 0)} V(2) = V(3) = { (0.2)=200. v(1. v(1.0. v(2)=v(3)=v(2.000.x3) R3+ / x1+x2+x3= 300.000 .3) = {(0. 0) R3+ / x1+x2=200.3) = {(x1.000 se tiene que: V(1) = {(100.Ejemplo En el juego de un vendedor y dos compradores v(1)=100.000} 22 .000. 0.000} V(1.2.x3 ) R3+ / x1+x3=300. x2.3)=0.3)=v(1. 0.2.000} V(2.3)=300.0) } V(1.x2.0. 0)} V(1. x3 300.000 x1+x2+x3= 300.000 x2 300.000 x1 23 .000 300. i ) .EL NÚCLEO El núcleo de un juego coalicional NTU. (N. 24 . no existe ninguna coalición S N en la que se puedan alcanzar pagos superiores (en términos de i ) para todos sus miembros que el que le ofrece x. se tiene que y i x para todo i S. Es decir.V. está definido por todas las asignaciones x V(N) tales que para ninguna coalición S N y y V(S). 0.x3) tales que: x1• 200. Tomemos y = (y1. el núcleo está conformado por todas las triplas (x1. x3=300.000. la coalición S={1.x2. ii) También podemos probar con la coalición S={1.000.es decir.2} .0) V(12). y3) V(13).y2. 25 .000.3 }. Entonces notemos que y1”x1. Tomemos y=(y1. y1+y3 =300. Entonces notemos que y1”x1 ó y3 ”x3. por ejemplo. es decir. x2=0.000 ± x1 i)Ilustremos que éstas satisfacen la condición anterior de núcleo para.EJEMPLO En nuestro ejemplo de un vendedor y dos compradores.y1+y2=200. x2=0.000.000 x2 200.x3 x1• 200.000 x1 26 .000 ± x1 (Núcleo) x1+x2+x3= 300. x3=300.000 300. Cabe aquí mencionar que esto induce inmedia-tamente una relación de preferencia i sobre + así: x i y si. Un entero positivo de bienes. . un vector de dotación de mercancías i + donde ™i N i > 0. 27 . y estrictamente cuasicóncava. Para cada agente i N. una función de utilidad U i: continua. ( i ). no-decreciente en cada uno de + sus argumentos.Una economía de intercambio (N. Ui (x) ” Ui (y) . y solo si. Para cada agente i N. (Ui)) consiste en: Un conjunto finito N de agentes. Ui (xi) ” Ui (yi ) 28 . (Ui) ) como un juego coalicional sin pagos transferibles (N. ( i ). V. . N-S } x iy si.Modelamos una economía de intercambio (N. X . de la siguiente manera: X = {x=(xi)i N / xi N} + para todo i V(S) = {x=(xi)i N X / ™i S xi = ™i S i xj=wj para todo j . y sólo si. ( i )) . 2) = {(x. y sólo si.El núcleo de la economía de intercambio será. entonces.2. Ui (xi) ” Ui (yi ) . i=1. y + V(1) = V(2) = {( 1. 2)} V(1. Es decir: 2 } X = {(x. 29 . el núcleo del juego coalicional NTU asociado. y) / x.2}) y dos mercancías ( =2).y) / x+y = 1+ 2} x i y si. Para fijar ideas. explicitemos el juego de una economía de intercambio con solo dos agentes (N={1. z2) V(S). x.y) V(12) tales que para ninguna coalición S N y (z1. z2 2 y Es decir.El núcleo está definido por todas las asignaciones (x. z2 2 y (Eficiencia Pareto). i) Para S=N={1. se tiene que z1 1 x. 1 V(12). 1 30 .z2) tal que z1 1 x. ii)Para S={1} debe tenerse entonces que iii) Para S={2} debe tenerse que 2 2 y.2} no puede existir (z1. y) tales que: x+y= 1 + 2 1 1 x .En resumen. 31 . 2 2 y Note que la eficiencia paretiana es. al menos . pues en un óptimo de Pareto podrían venir ³protestas´ individuales aisladas con respecto a que no tienen incentivos para participar en el juego ya que sus utilidad deben ser . el núcleo está conformado por las asignaciones eficientes Pareto (x .las obtenidas con las dotaciones iniciales. una condición que debe satisfacer una solución de núcleo. apenas. y1)=x1(y1)2 . (3. para ello.1) 2= (1.y2)=(x2)(y 2) . 32 . vamos a calcularle el conjunto de óptimos de Pareto (que Edgeworth llamaba ³curva de contrato´).Ejemplo Supongamos una economía de intercambio con dos agentes (1 y2) y dos mercancías (x y y). cuyas funciones de utilidad y dotaciones iniciales son: U1(x1. primero.3) 1= Vamos a calcularle el núcleo y. U2(x2. Existe una forma marginalista de calcularla que consiste en resolver dos problemas: i) Maximizar U1(x1.y1) = x1+x2=4 y1+y2=4 2 (fijo) ii) 1 (fijo) 33 .y2)= x1+x2=4 y1+y2=4 Maximizar U2(x2.y2) sujeto a U1(x1.y1) sujeto a U2(x2. (U2(x2.˜U2/˜x2 ˜U1/˜y1= .y2)- 2) ˜U1/˜x1= .˜U2/˜y2 ó ˜U1/˜x1 /˜U1/˜y1 = ˜U2/˜x2 / ˜U2/˜y2 (igualdad de tasas marginales de sustitución) 34 .Al resolver el primer problema mediante el método lagrangiano. obtendremos que: L = U1(x1.y1) ± Y así. y1) y (x2.y2) en la curva de contrato (óptimos de Pareto) que satifagan: x1(y1)2 • 3 . (x2)(y 2) • 3 35 . para encontrar el núcleo de esta economía de intercambio.Y así. y1 / 2 x1 = (4-y1 ) / (4-x1) Y así. obtenemos que (y1)2 / 2x1y1 = y2 / x2 o bien. debemos encontrar aquellos (x1. y1= 8x1 / (4+x1) (Curva de contrato) Finalmente. y1)=3 y2 x1 Agente 1 36 .y2)=3 Núcleo 1· U1(x1.Caja de Edgeworth x2 y1 y1 = 8x1 / (4+x1) (Curva de contrato) Agente 2 U2(x2. . (x*i )i N ) donde p* + es un vector de precios (no todos nulos) y la asignación (x*i )i N es tal que ™i N x*i = ™i N i para cada agente i N.En una economía de intercambio (N. se tenga que: x*i i xi cuando p*xi = p* i 37 . ( i ). (Ui) ) definimos un equilibrio competitivo como un par (p*. y2) sujeto a p1x2+p2 y2= p1+3p2 ii) 38 .y2)=(x2)(y2) .y1) sujeto a p1x1+p2 y1= 3p1+p2 Maximizar U2(x2. U2(x2.1) 2= (1.3) La forma marginalista de calcular que consiste.Calculemos el equilibrio competitivo para la economía de intercambio U1(x1. en resolver dos problemas: i) Maximizar U1(x1. inicialmente.y1)=x1(y1)2 . 1= (3. Las soluciones a estos dos problemas son: x1 = (3p1+p2 ) /3p1 y1 = 2(3p1+p2 ) /3p2 y x2 = (p1+3p2 ) /2p1 y2 = (p1+3p2 ) /2p2 Y ahora las colocamos para que satisfagan la condición de que su suma sea igual a las dotaciones disponibles en la economía: (3p1+p2 ) /3p1 + (p1+3p2 ) /2p1 = 4 2(3p1+p2 ) /3p2 + (p1+3p2 ) /2p2 = 4 39 Resolviendo la primera ecuación obtenemos que p*2 / p*1 = 15/11 Y así, x*1 = 16/11, x*2 = 28/11, y*1= 32/15 y*2 = 28/15 Pero resulta que esta asignación está en el núcleo de la economía porque: 40 i) Está en la curva de contrato y1= 8x1 / (4+x1) pues 32 /15 = 8(16 /11) / [4 + (16 /11)]. ii) Y satisface la condición de que x1(y1)2 • 3 ; (x2)(y 2) • 3 pues (16/11) (32/15) 2 = 6.62• 3 (28/11) (28/15) = 4.75 • 3 41 Caja de Edgeworth x2 y1 y1 = 8x1 / (4+x1) (Curva de contrato) Agente 2 U2(x2,y2)=3 · Núcleo 1· U1(x1,y1)=3 y2 x1 Agente 1 Equilibrio competitivo 42 Pero esto no es una casualidad, pues, en general: Todo equilibrio competitivo de una economía de intercambio está en el núcleo. 43 en una economía de intercambio con ³muchos´ agentes. toda economía de intercam-bio tiene un equilibrio competitivo (Arrow y Debreu (1954)). el núcleo no es vacío. vamos a ilustrar enseguida basán-donos en nuestro ejemplo. ii) En general. por lo tanto. 44 . el equilibrio competitivo y el núcleo coinciden (Principio de Equivalencia) . Sobre esto. y.Pero la relación va más allá: i) En primer lugar. 45 . son idénticos.1) 1= (3. U1¶ (x1¶. (3.Supongamos ahora que nuestra economía de intercambio tiene cuatro (4) agentes: U1(x1.y1¶)=x1¶ ( y1¶)2 .3) 2= (1.y2)=(x2)(y2) .y2¶)=(x2¶)(y2¶) .y1)=x1(y1)2 . Vamos a observar que algunas asignaciones del núcleo original ya no son del núcleo de la 2-réplica. A esto se le llama una 2-réplica de la economía original. U2¶(x2¶.1) 2= (1. U2(x2.3) 1= en donde los dos primeros y los dos segundos. Y esto haría que A no fuera parte del núcleo de la 2-réplica ya que 2 agentes tipo 1 y un agente tipo 2. 46 . la coalición formada por 2 agentes tipo 1 y un agente tipo 2. tomemos (ver la figura) la asignación A para el agente 1 que pertenece al núcleo de la economía original y tomemos la asignación B = (1/2) A + (1/2) 1 Entonces. podrían mejorar.4)-A . puede mejorar sus pagos con respecto a A: los dos agentes tipo 1 reciben B.Por ejemplo. en la 2-réplica. y el agente tipo 2 recibe (4. y1)=3 y2 x1 Agente 1 47 .La asignación A no está en la 2-réplica 2de la economía x2 y1 Agente 2 y1 = 8x1 / (4+x1) (Curva de contrato) U2(x2.y2)=3 ·E A· Núcleo de la 2-réplica C B· 1· Núcleo U1(x1. entre otros. Este es conocido como el ³Principio de Equivalencia´ 48 . es el equilibrio competitivo.Lo anterior es una ilustración de que la única asignación del núcleo original que sobrevive a las réplicas. En 1962. hasta alcanzar mediante ofertas y contraofertas (ARBITRAJES). sin recurrir a ningún concepto de convexidad de las curvas de nivel ni monotonicidad. Y la idea central es que el excedente (surplus) que surge en la economía original se puede repartir entre nuevos agentes (similares) de la economía. la asignación del equilibrio competitivo (en donde no hay ya surplus alguno). coinciden. Aumann probaría que en una economía competitiva con un continuo de agentes. el núcleo y el equilibrio competitivo. Intuitivamente. 49 . sin (casi) importar qué asumamos acer-ca de la forma en que trabajan estas fuerzas. el ³Principio de EquiEquivalencia´ afirma que la institución de los precios de mercado surge naturalmente a partir de fuerzas básicas al interior del mercado. ).201) 50 .a) Calcular una asignación del conjunto estable del juego UT de un vendedor y dos compradores. p.).Ejercicios 0.Ejercicio 6. Discutir Aumann (1962) sobre convexidad. b) En la economía de intercambio estudiada en el curso. 4.Ejercicio tipo Cournot del parcial anterior. 2. libro azul de juegos (Monsalve y Arévalo (eds. 3. 1. p. Problema de asignación de costos (libro azul de juegos (Monsalve y Arévalo (eds. calcular dos asignaciones numéricas explícitas de núcleo.211). cuyas funciones de utilidad y dotaciones iniciales son: U1(x1. 51 .y2)=(x2)(y2) . U2(x2. (2.5.2) 1= a) Calcular el núcleo y dibujarlo en una caja de Edgeworth.y1)= (x1 )2(y1)2 . b) Calcular el equilibrio competitivo y mostrar que está en el núcleo.1) 2= (1.Supongamos una economía de intercambio con dos agentes (1 y 2) y dos mercancías (x y y). pero junto con el capitalista.) es una función cóncava no-decreciente con f(0)=0. Los trabajadores solos no pueden producir nada. Demuestre que el núcleo de este juego es el conjunto de todos los perfiles de pagos x=(xi) tales que 0” xi ” f(w)-f(w-1) para i W y ™i N xi =f(w) donde w es el cardinal de W. cualquier grupo de m trabajadores puede producir output con valor f(m) donde f(. 52 .v) donde N = {c} U W. siendo W el conjunto de los trabajadores y V(S) = 0 f(|S si c no pertenece a S W |) si c pertenece a S i.6. Un capitalista (notado por c) posee una factoría y cada uno de los w trabajadores solo posee su propia mano de obra. Un juego coalicional que modela esta situación es (N. Encontrar el valor de Shapley y contrastarlo con las asignaciones de núcleo. ii. 1 0 0 0 f(2)-f(1) f(1)-f(0) f(2)-f(1) ¨2 0 f(2)-f(1) 0 0 f(2)-f(1) f(1)-f(0) ¨3 f(2) f(1) f(2) f(1) f(0) f(0) 53 .2.3 2.3.1 3.3 1.1.2.2 3.2 2.3.Sugerencia para la parte b) con |N|=3 (el jugador 3 es el capitalista) ¨1 1.1. JUEGOS DE NEGOCIACIÓN (I): NEGOCIACIÓN ESTÁTICA 54 . TEORÍA DE JUEGOS CLÁSICA JUEGOS NONOCOOPERATIVOS JUEGOS COOPERATIVOS JUEGOS DE NEGOCIACIÓN 55 . d) donde .d) + asignaciones posibles de utilidad (o posibles acuerdos) de los dos jugadores (u1. cuerdo´ Se asume. 56 .d2) se le denomina ³punto de desadesacuerdo´.Un juego de negociación (de dos agentes) es un 2 es el conjunto de par ( . Además que Ui(d)” Ui(x) (i=1. inicialmente.2) para todo x . y comprehensivo (si x y y”x entonces y ). que es un conjunto no-vacío. Al punto d=(d1. compacto (cerrado y acotado). Un ejemplo típico de un conjunto de negociación es el presentado en la siguiente figura. convexo (¿por qué?).u2). d2) u1 Conjunto de negociación típico 57 .u2 A la frontera superior de también la llaman la ³curva de contrato´ de la negociación o también ³frontera Pareto´ . d=(d1. d) un vector (o vectores) de la forma ( . una asignación en de los dos agentes.d). para cada uno 58 .d)= ( 1( .¿Qué es una solución de negociación? Es una regla que asigna a cada problema de negociación ( .d)) Es decir. 2( . 59 .AXIOMAS SOBRE LAS SOLUCIONES DE LOS JUEGOS DE NEGOCIACIÓN 1. AXIOMAS DE EFICIENCIA PARETO u2 Solución eficiente débil · Solución eficiente fuerte · u1 Toda asignación eficiente fuerte también es eficiente débil. AXIOMA DE SIMETRÍA u1=u2 Solución simétrica · Si el conjunto de negociación es simétrico con respecto a la recta u1=u2.2. 60 . entonces las soluciones de la negociación son iguales para ambos jugadores. 3. AXIOMA DE INVARIANZA ESCALAR Solución después de una transformación afín · Solución original · Las soluciones respetan las transformaciones afines. 61 . AXIOMA DE INDEPENDENCIA DE ALTERNATIVAS IRRELEVANTES (IAI) Solución para · El axioma IAI afirma que también es la solución para 62 .4. SOLUCIÓN NASH DE NEGOCIACIÓN Es una solución que satisface los axiomas de eficiencia fuerte de Pareto. invarianza escalar e independencia de alternativas irrelevantes.SOLUCIONES DE LOS JUEGOS DE NEGOCIACIÓN 1. simetría. 63 . d2) es el punto de desacuerdo.Sin embargo. u2) al siguiente problema: Maximizar (u1-d1)(u2-d2) sujeta a (u1 . Nash demostró que esta solución tiene un algoritmo muy particular para hallarla. u2) donde d=(d1. 64 . pues es la solución (u1. d2) u1 65 .u2) = (u1-d1)(u2-d2) Conjunto de negociación (d1.u2 Solución Nash de negociación · B(u1. una función suave H(u1.u2) = 0 . el problema que debemos resolver para la solución Nash es de la forma Maximizar (u1-d1)(u2-d2) sujeta a H(u1 . u2) = 0 Que nos lleva a la ecuación diferencial ˜H/˜u1 /˜H/˜u2 = (u1-d1) / (u2-d2) Ecuación para soluciones Nash 66 . Y por lo tanto.Cuando la frontera Pareto (o conjunto de negociación) es suave podemos describirla mediante suave. Ejemplos 1.d2)=(0. (d1.u2) 2 + / (u1)2+(u2)2=1} .0). Entonces el problema es: Maximizar u1u2 sujeta a (u1)2+(u2)2=1 u1•0. Sean ={(u1. u2•0 cuya obvia solución es u1=u2= 1/¥2. 67 . u2•0 cuya solución es u1= 1/¥6. (d1. 68 .2.u2) 2/ + 3(u1)2+(u2)2=1} .0) Entonces el problema es: Maximizar u1u2 sujeta a 3(u1)2+(u2)2=1 u1•0.d2)=(0. Sean ={(u1. u2= 1/¥2. u2 La nueva situación de negociación Nash perjudica al agente 1 en relación al agente 2. 1/¥2) (1/¥2 . 1/¥2) · · u1 69 . pues el conjunto inicial de acuerdos se contrajo en detrimento del agente 1. (1/¥6. 0).Pero la situación anterior no siempre ocurre.d2)=(0. De hecho. y 1.u1) si u1 • 3/4 y supongamos (d1.(u1 /3) si u1 ”3/4 u2 = 3(1. 70 2 + . la hipótesis IAI de la solución Nash lleva resultados contra-intuitivos como veremos en el siguiente ejemplo. Sea 1 el conjunto de todos los (u1.u2) tales que 0”u1 ”1 . 71 .(10u1/3) si u1 <1 u2 = [0.u2) tales que 0”u1 ”1 . 10/7] si u1 =1 2 + En la gráfica de enseguida se muestra que 1 2 pero. aunque el agente 1 mejora su asignación.Sea 2 el conjunto de todos los (u1. y 1. el agente 2 la empeora. 0. como veremos enseguida.7) 2 1 u1 Este resultado contra-intuitivo es consecuencia del axioma IAI. 0.75) · 1 2 · Solución Nash para (1.75. 72 .Solución Nash para 1 u2 1 (0. DE ¿Pero qué es monotonicidad individual ? Es precisamente un axioma que evita situaciones como la que acabamos de presentar.2. simetría. invaindividual rianza escalar y monotonicidad individual. Más específicamente: 73 . SOLUCIÓN KALAI-SMORODINSKY KALAINEGOCIACIÓN Es una solución que satisface los axiomas de eficiencia débil de Pareto. d) la utilidad máxima posible del jugador i en el problema de negociación ( . Si y ai( )=ai ( ) entonces i ( .d)” i( .d).d)=a2( . AXIOMA DE MONOTONICIDAD INDIVIDUAL Sea ai( .d) a1( .5.d) 74 .d). a2( .d) · · a1( . u2) donde d=(d1. o bien. (u1-d1) / ( u2-d2) = (a1±d1) / (a2±d2) 75 . Pero esta complicada fórmula se resuelve en (u1. pues es la solución (u1.u2) tal que (a2 ±d2)(u1-d1) = (a1±d1)( u2-d2) .Kalai y Smorodinsky (1975) demostraron que esta solución tiene un algoritmo muy particular para hallarla. (a1±d1)( u2-d2)} sujeta a (u1 . u2) al problema: Maximizar Min {(a2 ±d2)(u1-d1).d2) es el punto de desacuerdo. d2) u1 a1 u1 O (u1-d1) / ( u2-d2) = (a1±d1) / (a2±d2) 76 .u2 a2 Solución Kalai-Smorodinsky u2 · (d1. u2 a2( .d2) u1 a1( .d) O u1 Problema de optimización de la solución KS 77 .d) Solución Kalai-Smorodinsky u2 · (d1. 0.d2)=(0.u2) + 2/ (u1)+(u2)2=1} .EJEMPLO 1 u2 1 Solución KS (0.0) 78 .57) 1 u1 ={(u1.67. 0. (d1.618.618) · · Solución Nash (0. u2) u2 = 1.(u1 /3) 3(1.75) = Solución KS · 1 Sea 1 u1 el conjunto de todos los (u1. 0.EJEMPLO 2 u2 1 Solución Nash para = (0.u1) si u1 ”3/4 si u1 • 3/4 + 2 tales que 0”u1 ”1 . y 79 .75. y monotonicidad individual fuerte. precisamente en un re-escalamiento de las utilireutilidades. y. SOLUCIÓN IGUALITARIA DE NEGOCIACIÓN Es una solución que satisface los axiomas de eficiencia débil de Pareto. fuerte. aunque la solución igualitaria no exige el axioma de invarianza escalar.es un caso particular de la solución KS. simetría. por ello.3. 80 . Este axioma es un debilitamiento del de monotonimonotonicidad individual que mencionamos antes. dades. d) 81 .d) dos problemas de negociación.d) · · a1( . ( . Si entonces.2. para i=1.5.d) .d)=a2( .d) a1( . AXIOMA DE MONOTONICIDAD INDIVIDUAL FUERTE Sean ( .d)” i( . i ( .d) a2( . efectivamente. u2) u2 Solución igualitaria u2 · (d1.Y. hallar la solución igualitaria de una negociación obliga a resolver el problema de optimización siguiente: Maximizar Min {(u1-d1). (u2-d2)} sujeta a (u1 .d2) u1 u1 82 O . u2 Solución KS · u2 Solución igualitaria · (d1.d2) u1 u1 83 O Comparación entre la solución KS y la solución igualitaria 83 . 0.EJEMPLO 1 u2 1 Solución KS (0.0) 84 .618) = Solución igualitaria · · Solución Nash (0.d2)=(0.57) 1 u1 ={(u1.618.67. 0.u2) + 2/ (u1)+(u2)2=1} . (d1. u2) 85 .4. Para hallar la solución utilitaria de negociación debemos resolver el problema de optimización: Maximizar sujeta a u1 + u2 (u1 . SOLUCIÓN UTILITARIA DE NEGOCIACIÓN Es una solución que únicamente satisface los axiomas de eficiencia fuerte de Pareto y simetría. u2 Recta u1+u2= constante u2 · Solución utilitaria (d1.d2) u1 u1 86 O Solución utilitaria 86 . 0.0) 87 .EJEMPLO 1 u2 1 Solución KS (0.5) 1 u1 ={(u1. (d1.75 .u2) + 2/ (u1)+(u2)2=1} . 0.618. 0.d2)=(0.57) Solución utilitaria (0.618) = Solución igualitaria · · · Solución Nash (0.67. Soluciones de negociación y axiomas normativos Monotonicidad Individual Monotonici dad individual fuerte Eficiencia fuerte Nash KM Igualitaria Utilitaria Eficiencia débil Simetría Invarianza Escalar IAI  Sí Sí Sí  Sí Sí Sí Sí Sí  Sí  Sí Sí  Sí Sí 88 . Soluciones de negociación y funciones de bienestar Solución de Negociación Función de Bienestar Nash Kalai-Smorodinsky Igualitaria -igualitaria Utilitaria -utilitaria Cobb-Douglas Leontief ampliada Leontief clásica Leontief generalizada Lineal clásica Lineal generalizada 89 . 90 .El Programa Nash ¿Es posible implementar las soluciones de negociación estudiadas. como equiliequilibrios de Nash perfectos en subjuegos de juegos no-cooperativos? noLa respuesta es: ¡Depende! Presentemos un ejemplo. u2) = Min{( /(1+ ) )u1. (1/(1+ ) ) u2} para cierto 0< <1 especificado previamente.Implementación ±igualitaria Supongamos que dos agentes neutrales al riesgo van a repartirse 1millón de pesos. pero que por razones éticas quieren plegarse a las hipótesis normativas de una repartición ±igualitaria con función de bienestar B(u1. 91 . (1/(1+ ) )u2} sujeta a u1 + u2 =1 u1 . u2 1 u2 = u1 · 1 u1 92 .Entonces el problema de negociación estática es Maximizar Min{ ( /(1+ ) )u1. u2 • 0 u2= /(1+ ) cuya solución ±igualitaria es: u1 = 1/(1+ ) . puede aceptar o rechazar. etc. entonces es ahora él. que el jugador 2 puede aceptar o rechazar. 93 . a su vez. Suponemos que cada oferta toma un tiempo que hace que la cantidades se deprecien y este parámetro está medido por . el que le hará una oferta al jugador 1. que éste.Ahora implementaremos esta solución como un ENPS de un juego extensivo muy particular (Rubinstein (1982): Supongamos que los dos jugadores alternan sus ofertas: primero el jugador 1 realiza una propuesta de repartición del millón de pesos. Si el jugador 2 rechaza la oferta. si esta entidad quiere beneficiar al jugador 1 (que va a recibir 1/(1+ ) del millón de pesos).Este puede ser colocado por una entidad centralizada: ³Si se demoran. por ejemplo. Pero si lo que quiere es beneficiar al jugador 2. recibirán x´. Así. hacer que la negociación se demore). propiciar que la negociación dure poco). intentará hacer tender a 1 (es decir. 94 . en lugar de recibir x. lo mejor que /(1 puede hacer es colocar un pequeño (es decir. 95 . Veamos que Este juego no-cooperativo de forma extensiva tiene un único ENPS. supongamos. Para comprender el proceso. primero.Supongamos que este proceso dura un número indefinido de períodos. que el número de etapas de negociación es N=4. y que este equilibrio de Nash es la solución ±igualitaria que acabamos de calcular. en el tercer período. al saber esto el jugador 2.Si se llegara al cuarto período del juego. el jugador 1 le propondrá al jugador 2 una repartición de la forma (x.3 + 4). la repartición propuesta por el 2 al 1 en el segundo período. es decir. 4)..1-x) tal que 2x= 3. que éste no pueda rechazar: ganar lo mismo que en el cuarto período . 2A ·1 2R 1A ·2 1R 2A ·1 2R ·2 2 toma todo. el jugador 2 tomará todo. 4. ) y los pagos ya descontados serían ( 3. es decir. Es decir.4.+ 2) y los pagos ya descontados serían ( 3. Es decir. Obviamente. Así. para sí. la repartición propuesta por el 1 al 2 en el período 3. Obviamente. entendiendo esto. el jugador 1 aceptaría. 4 Fin del juego 96 .4 . el jugador 2 aceptaría. 1-x) tal que 3(1-x)= 4. le hará una oferta al 2 en el período 3. es decir.4. sería (1. es decir. Pero el 1. en el segundo período le hará una oferta al 1 que lo beneficie a él (al 2) pero que le dé al 1 lo mismo que va a recibir en el período 3.2. y dejará nada para 1. 2 . sería ( . le propondrá al jugador 1 una repartición de la forma (x.4. 1. Sin embargo. 3. 3 + 4 . sería de ( 3. dado que la repartición propuesta por el 2 al 1 en el segundo período.Finalmente. 2 - 3 + 4 ) 2 toma todo.4. a una distribución de la forma (1+ 2 2A ·1 2R 1A ·2 1R - 3. Es decir.1-x) tal que (1-x)= 2 .3 + 4). Esta oferta sería una repartición de la forma (x. 2 . - 2 + 3) 2A ·1 2R Por lo tanto. los pagos propuestos por el jugador 1 en el primer período y aceptados por el 2 son ( 2 ·2 4 + 3- 4 . y esto nos lleva a que (1-x)= ± 2 + 3. éste podría hacerle en el primer período una propuesta al 2 que lo beneficiara a él (al 1) y que le diera al jugador 2 lo mismo que recibiría en el segundo período. y que en esas condiciones el jugador 1 aceptaría. con utilidad Fin del juego 97 . de la forma x1 = 1/(1+ ) . - 2 + 3 - 4 +« - N «) Es decir. igualitaria. 98 . x2= /(1+ ) que es igual a la solución ±igualitaria. una repartición de la forma (1+ 2 - 3+« - N-1 « .¿Qué sucedería si el número de períodos N ’? Que el jugador 1 propondría. en la primera etapa. ¿Por qué se llama ³curva de contrato´ a la curva frontera superior de un conjunto de nego-ciación? 2. al equilibrio competitivo. etc. Indicar. Luego despeje x1 en cada ecuación e iguale. en esa frontera Pareto.] 99 . Así se obtiene la frontera Pareto. (*) Construir algebraicamente el conjunto de * negociación para la economía de intercambio presentada en la clase magistral anterior.1.) de bienestar social conduciría allí? [Sugerencia Sugerencia: Recurra a la curva de contrato y evalúela en las curvas de utilidad. Leontief. ¿Qué tipo de función (Cobb-Douglas. >1 a) Calcule las cuatro soluciones (Nash. c) Evalúe cuál solución ³premia´ más al agente amante al riesgo. 4.u2) +2 / (u1) +u2=1} (d1.)). p. iguali-taria y utilitaria) de este problema. b) Grafique.d2)=(0. Sean = {(u1.0) . 100 . KS.3. Ejemplo 2 (³Soborno y control del crimen´) del texto guía (Monsalve y Arévalo (eds.233. es posible implementar una solución Nash como una KS? b) ¿Bajo qué condiciones. 10 1 . si existen. es posible implementar una solución KS como una igualitaria? c) Etc. coloque uno de los seis tipos de soluciones que estudiamos en esta clase magistral. Bajo qué condiciones.5. es posible implementar una solución _______________ como una solución ____________ ? En cada uno de los espacios. Por ejemplo: a) ¿Bajo qué condiciones. si existen. si existen. B tiene dos manzanas y no tiene naranjas. Suponga que dos agentes B y D pueden intercambiar manzanas por naranjas. 7. Lo mismo que en el ejercicio anterior pero ahora implementando con una función utilitaria generalizada. y D tiene dos naranjas y ninguna manzana.6. Implemente el equilibrio ENPS del modelo de Rubinstein como una solución Nash genera-lizada [Sugerencia: Optimice la función Cobb-Douglas B(u1. pero lo deben hacer en cantidades enteras. 8.u2)=(u1)(u2) ]. ¿Se podrá implementar con una función KS? 9. Sus cantidades y utilidades están regidas por la siguiente tabla: 10 2 . Manzanas 0 1 0 2 0 1 1 2 2 Naranjas 0 0 1 0 2 1 2 1 2 Utilidad de B 0 4 6 10 12 14 20 16 21 Utilidad de D 5 10 8 11 15 25 36 35 37 Describa la situación que enfrentan B y D. 10 3 . como un juego de negociación y halle las soluciones Nash y KS. En el Teorema de Imposibilidad de Arrow se afirma que no existe ninguna función de bienestar social. pero en esta clase hemos estudiado algunas. ¿Por qué este dilema? 10 4 .10. JUEGOS DE NEGOCIACIÓN (II): NEGOCIACIÓN CON AGENDA 105 . JUEGOS CON INFORMACIÓN ASIMÉTRICA (I) 106 . en seguros. en publicidad. en estructuración de capital. la economía pública. en políticas de dividendos. y en muchos otros.Los problemas que surgen en presencia de información privada no-verificable ha sido de interés central para los economistas durante las últimas décadas pasadas. Y este problema está en el corazón del análisis económico en la organización industrial. Y también en problemas específicos como en subastas. 107 . en educación. etc. a juicio de Salomón.C. 108 . entonces ordenaría matar al niño.C.. Esto.930 a. La historia es la de dos mujeres disputándose la custodia de un niño. a lo que el rey Salomón les dijo que si no se revelaba la verdadera madre.). se llevara ella el niño. era suficiente para asegurar que la primera mujer era la verdadera madre. la verdadera madre le dijo a la otra mujer que. mejor. La Biblia ³lo considera el hombre más sabio que existió en la Tierra´.Y aunque el problema de información privada noverificable es inherente a las limitaciones y posibilidades humanas. arguyendo cada una que era la verdadera madre. A esto. uno de los más interesantes ejemplos aparece en uno de los juicios del Rey Salomón de Israel (reinó en 970 a. Harsanyi (1967) encuentra una forma de aproximarnos a este problema sin abandonar la metodología de la teoría de juegos clásica.Un juego en forma estratégica =[N. puedo no saber con seguridad de la existencia de alguno de sus oponentes. Sin embargo. (Ci). (ui )] tiene información asimétrica (o incompleta) si el juego no es conocimiento común de los jugadores. inclusive. un agente puede no conocer las estrategias o los pagos de alguno de sus oponentes. 109 . O. Por ejemplo. es decir. de las funciones de utilidad de los jugadores. Antes de presentar la definición veamos un ejemplo de un juego con información asimétrica.La idea es resumir toda la información incompleta en dos elementos: a) La noción de tipo de jugador (es decir. nos concentraremos solo en la información asimétrica de los pagos. b) Una distribución a priori de probabilidades sobre qué tipo de jugador se está enfrentando. 110 . En lo que sigue. cada jugador puede ser de varios tipos). Polaroid).Ejemplo #1: Barreras a la entrada Muchas empresas. al menos durante un tiempo. IBM. cuya posición monopolística inicial posiblemente tuvo su origen en alguna innovación o patente tecnológica. aún después de haber expirado las patentes (Kodak. consiguen conservar su posición domi-nante. 111 . si han entra-do. o que.Los tres casos típicos de barreras a la entra-da son: i) Fijación depredadora de los precios: bajar los precios radicalmente (inclusive por debajo del costo de producción de la nueva empresa) para que las empresas competidoras no obtengan beneficios de la entrada. como señal de que la empresa ya existente está dispuesta a una feroz competencia de precios y que puede hacerlo. ii) Exceso de capacidad: Construir instalaciones productivas mayores de lo que es necesario. acaben quebrando. 11 2 . podría ser rentable entrar en el mercado. 113 . éste puede tratar de engañarlo haciendo pensar al potencial competidor de que sus costos son bajos (por ejemplo. Así. por tanto. el competidor notará que ello no era así. al cobrar un precio inferior al monopolístico que haga que el volumen de ventas aumente y se vea como un negocio ³próspero´) y que. sabe qué precio se cobra en el mercado y tiene una idea exacta de cuáles son sus propios costos de producción.iii) Fijación de precio límite: Una empresa que esté considerando la posibilidad de entrar al mercado de un monopolista. Pero luego de entrar. y acabaría quebrando. A tal precio inferior al monopolístico se le conoce como ³precio límite´. pero quizás no de los costos de producción del monopolista. 114 . es que el monopolista amenace con ampliar su capacidad instalada de producción creando el rumor de que va a construir una nueva planta.Ejemplo #1: Barreras a la entrada Un monopolista tiene un potencial competidor que está intentando entrar a su mercado. pero el competidor potencial podría no saber con seguridad cuál de los dos tipos de costos realmente va a enfrentar el monopolista. Una de las estrategias típicas para impedir su entrada. Si lo hiciera. el monopolista sabe en qué costos estaría obligado a incurrir (altos o bajos). Los pagos que reciben ambos jugadores en situaciones de costo alto y costo bajo son las siguientes: Potencial competidor Potencial competidor Monopolista Monopolista E C NC 0.0 5.2 NE 2. cuando el competidor decide no entrar. Costo bajo NC= No Construir NE= No Entrar 115 . aumenta la valoración del negocio monopolista.0 2. Costo alto C= Construir.0 E C NC 2. Por ejemplo.2 NE 4. el monopolista de costo bajo reciba menos que el costo alto.-1 3. la creencia de que si le han amenazado entrar a competir a pesar de los altos costos. E= Entrar . en este caso.0 Una razón externa lleva a que.-1 3. -1 3.0 2.2 NE 2.Observemos que cuando el costo es alto. el monopolista sabe que es mejor no construir cuando los costos son altos.0 E C NC 2. Y esto también lo sabe el potencial competidor. la estrategia NC del monopolista domina a la estrategia C. cuando los costos son bajos. entre o no entre a competir. esta decisión dependerá de la probabilidad de que el competidor potencial. Potencial competidor Potencial competidor Monopolista Monopolista E C NC 0.0 5.2 NE 4. Es decir.0 Costo alto Costo bajo 116 . Sin embargo.-1 3. 0 5. q< 2/3 2/3.0 2.Sea entonces q la probabilidad de que el competidor entre al mercado cuando los costos son bajos. Potencial competidor Potencial competidor (q) Monopolista Monopolista E C NC 0.2 NE 4.-1 3. Entonces el monopolista escogerá construir (C) si y sólo si 2q +4(1-q) >3q + 2(1-q) Es decir.0 E C NC 2. si. y sólo si.0 Costo alto Costo bajo 117 .2 NE 2.-1 3. que la probabilidad de que entren a competir no sea demasiado alta. Pero si enfrenta costos bajos. no cons-truirá la nueva planta. es decir. 2. entonces cons-truirá la nueva planta solo si la probabilidad de que el competidor entre al mercado sea menor que 2/3. Si tiene que enfrentar costos altos. ya se sabe cómo se comportará el monopolista: 1. 118 .De esta manera. el competidor entrará al mercado si.0 Monopolista E NE (q) E C NC 2.-1 3.-1 3.0 2. Asumamos que se sabe (es conocimiento común) que el monopolista tiene costos altos con probabilidad objetiva p1.0 119 Costo alto (p1) Costo bajo .2 NE 4. Entonces.2 2.0 5. y sólo si: p1( valor esperado si entra cuando el costo es alto) + (1-p1 )( valor esperado si entra cuando el costo es bajo) • p1( valor esperado si no entra cuando el costo es alto) + (1-p1 )( valor esperado si no entra cuando el costo es bajo) Potencial competidor Potencial competidor Monopolista C NC 0.¿Y cómo se comportará el competidor potencial? Aquí es donde aparece la distribución sobre los ³tipos´ de mono-polista: costos altos y costos bajos. por tanto. De esta manera: ` ` Valor esperado si entra cuando el costo es alto= 2 Valor esperado si no entra cuando el costo es alto=0 Y para determinar los otros dos valores esperados (Valor esperado si entra cuando el costo es bajo y Valor esperado si no entra cuando el costo es bajo) se requiere de una nueva probabilidad: 120 . en este caso entrará al mercado. por dominancia.Pero el competidor potencial sabe que. el monopolista no construirá (NC) una nueva planta si el costo es alto y. p= probabilidad de que el monopolista construya cuando los costos son bajos. Potencial competidor Potencial competidor (q) E Monopolista Monopolista E C NC 0. Valor esperado si el competidor no entra cuando el costo es bajo = (0)p + 0(1-p)=0. 121 .0 NE 4.0 (p) C NC 2.2 Costo alto (p1) Costo bajo Valor esperado si el competidor entra cuando el costo es bajo= (-1)p + 2(1-p)= 2-3p.2 NE 2.0 5.-1 3.0 2.-1 3. Así. si. y solo si. entrará al mercado. puesto que el competidor entrará al mercado si. p ” 2 /3(1-p1) 122 . y solo si. si. 2p1+(1-p1)(2-3p) • 0p1 + 0(1-p1) Es decir. y sólo si: p1( valor esperado si entra cuando el costo es alto) + (1-p1 )( valor esperado si entra cuando el costo es bajo) • p1( valor esperado si no entra cuando el costo es alto) + (1-p1 )( valor esperado si no entra cuando el costo es bajo) Entonces. entonces construirá la nueva planta solo si la probabilidad (q) de que el competidor entre al mercado sea menor que 2/3. es decir.De esta manera. que la probabilidad de que entren a competir no sea demasiado alta. El monopolista: a) Si tiene que enfrentar costos altos. es menor o igual a (2/3)(1/(1-p1)). ya se sabe cómo se comportarán el monopolista y el competidor potencial: 1. no construirá la nueva planta. El competidor potencial: Entrará al mercado si la probabilidad (p) de que el monopolista construya la nueva planta cuando los costos son bajos. 123 . b) Pero si enfrenta costos bajos. 2. es decir. entonces: ¿Qué podría ser un equilibrio de Nash en esta nueva situación? No podría ser nada distinto a un comportamiento de expectativas auto-satisfechas.Toda la anterior información es conocimiento común por parte de los dos jugadores. que llamaremos aquí equilibrio de Nash bayesiano. 124 . y q sea óptima dada p. encontrar unas creencias (p. teniendo fija la probabilidad objetiva p1.q) tales que p sea óptima dada q. La pregunta ahora es. si es relativamente baja la probabilidad de que los costos sean altos. tenemos estos dos equilibrios de Nash bayesianos en estrategias puras: i) (p=0. 125 . ii) iii) Como vemos. q=0. Existe un tercer equilibrio mixto (ejercicio). q=1) El monopolista no construye (sin importar los costos) y el competidor entrará al mercado.Así. (p=1. p1<1/3) El monopolista construye (sin importar los costos) y el competidor no entra en el mercado. puede ser que esta información privada del monopolista no prevenga al competidor de entrar al mercado. se lanza una moneda al aire. Los agentes entregan sus ofertas simultáneamente (o sin que ninguno se entere de la oferta del otro). El agente que tenga la mejor oferta se lleva el objeto y paga la cantidad ofrecida. 126 . Si hay empate.Ejemplo #2: Las subastas como un juego con información asimétrica: El caso de sobre asimétrica: cerrado de primer precio Dos agentes (i=1. Ambos agentes son neutrales al riesgo.2) participan en una subasta. Sobre las valoraciones vj del otro agente.bj| vi)= 0 si bi < bj (vi-bi)/2 si bi = bj 127 .2. cada uno solo sabe que está uniformemente distribuida en el intervalo [0. lo que significa que Prob (vj ” x)=x La función de pagos del agente i=1.1] del bien y únicamente sabe su propia valoración.Cada agente tiene una valoración vi [0. es vi ± bi si bi >bj ui (bi.1]. Es decir. 128 . Vamos ahora a probar que existe un equilibrio simétrico y lineal.2 tiene una función de oferta (puja) bj(vj) entonces la mejor respuesta del agente i estará definida por el problema de maximizar el pago esperado E(ui )= (vi-bi)Prob(bi>b j(vj )) + (0)Prob(bi <bj (vj)) + (1/2)(vi-bi)Prob(bi =bj (vj)) = (vi-bi)Prob(bi>bj(vj)) con respecto a bi.Si cada agente j=1. bi(v)=bj (v)= v para algún >0. (bi ) = 0 bi = vi /2 Equilibrio simétrico 129 .E(ui ) = (vi-bi)Prob( bi>bj(vj) ) = (vi-bi) Prob( bi> vi ) = (vi-bi) Prob( vi< bi / ) = (vi-bi) (bi / ) Derivando esta función cóncava estricta con respecto a bi obtenemos que: (vi-bi) . 1/N) Equilibrio simétrico 130 .En el caso general con N jugadores. la oferta es bi = vi (1 . el precio deja de ser una señal perfecta del valor de un bien. a) Los de selección adversa son. modelos de mercado. y. en donde los equilibrios no son óptimos de Pareto (second-best). puede dar origen a eliminación de buenos productos o incluso a la ausencia de intercambio. adversa´ y ³riesgo moral´. así. en el que uno de los agentes no puede observar una característica inalterable del bien que se comercia. además. puesto que a un mismo precio se pueden obtener bienes de diferente calidad. second-best) 131 . en general (aunque no exclusivamente).Ejemplo #3: Selección adversa y riesgo moral Dos de los tipos de información asimétrica que más se estudian en la literatura son los de ³selección selección riesgo moral´. El problema del principal reside en encontrar un incentivo para que el agente actúe de acuerdo con su interés). En general.b) Por su parte los problemas de riesgo moral: son moral: los que implican una acción (o información) oculta. 132 . se estructura a través de modelos principal-agente principal-agente. pero que. Este es el origen de la teoría de contratos que es una sub-área de la teoría de diseño de mecanismos. donde el principal es el individuo que ordena al agente efectuar una tarea estipulada en un con-trato. a la vez. estudiaremos en la próxima sesión magistral. mecanismos. enfrenta un problema de riesgo moral cuando observa de manera imperfecta la acción emprendida por el agente (acción oculta). Sobre problemas de riesgo moral. Un ejemplo sencillo de selección adversa: el mercado de carros usados Consideremos un muy simple modelo de carros usados en que todos los compradores son idénticos y obtienen de su compra una utilidad U=Q-P (diferencia entre calidad y precio), y los vendedores una utilidad V=P-Q (diferencia entre precio y calidad). La mitad de los automóviles es de buena calidad (Q=20) y la otra mitad es de mala calidad (Q=10). Con información simétrica, los buenos carros serían comprados por 20 y los de mala calidad por 10. 133 Con información asimétrica (es decir, los compradores no conocen la calidad, sólo la información de que la mitad es buena y la otra mitad es mala, además de los niveles de Q, en cada caso), la utilidad esperada de un comprador al pagar un precio P es de 0.5(10-P)+0.5(20-P) = 15-P y a este nivel de utilidad, los compradores no pagarán más de 10 por automóvil, y el vendedor, que sabe esto, solo ofrecerá carros de mala calidad; es decir, los carros de buena calidad son excluidos del mercado. ¡La selección adversa corresponde a un efecto perverso que eliminó el producto de buena calidad! 134 Otro ejemplo de selección adversa: el mercado de carros usados (II) (Akerlof (Akerlof (1970)) Consideremos un mercado de carros usados en el que, como antes, los propietarios tienen completa información sobre el estado del carro, pero no los compradores potenciales. Supongamos que es posible indexar la calidad de un carro usado mediante un número q, que es distribuido uniformemente sobre el intervalo [0,1], siendo entonces 1/2 la calidad promedio de los carros usados en el mercado. 135 Supongamos que hay un gran número de personas que están dispuestos a pagar qm por un carro (donde 0< <2 y qm es la calidad promedio), y que hay una gran cantidad de vendedores que están dispuestos a vender un carro de calidad q por un precio de q. Así, si la calidad fuera observable, cada carro de calidad q se vendería a algún precio entre qm y qm. ¿Cuál es el precio de equilibrio de los carros? Vamos a mostrar que es p=0. 136 En efecto; supongamos que un p>0 es el precio de equilibrio; entonces los únicos propietarios que querrán ofrecer sus carros para la venta son los de calidad menor que p, y la calidad promedio será q=p/2. Así, un comprador estará dispuesto a pagar (p/2) = ( /2)p. Pero como este es menor que p, no puede ser que p sea equilibrio. Por lo tanto, no se venderá ningún carro al precio p, y el único posible precio de equilibrio será p=0. A este precio no habrá ningún movimiento en el mercado. ¡Este es un ejemplo (muy) simple en el que la información asimétrica destruye un mercado! 137 la probabilidad (posterior) de que la verdadera matriz sea M2 es.Por su parte. por la regla de Bayes. P(T|M2)P(M2) P(M2| T)= P(T|M2)P(M2) + P(T|M1)P(M1) (1/4)(1/2) = (1/4)(1/2) + (3/4)(1/2) =1/4 138 . después del primer período. (en el que Fila jugó T ). 139 .El ³juego esperado´ después de T en el primer período es: L C 1 -1 R 1 1 (¾)M1 + (¼)M2: T B 3 3 en el que jugar T le garantiza a Fila un pago de1 (pues columna jugaría C). Por lo tanto. (en el que Fila jugó B). 140 .b) Después del primer período. P(M2|T)=1/4 y P(M2|B)=3/4 y el ³juego esperado´ le garantizaría también un pago de 1. por la regla de Bayes. la probabilidad (posterior) de que la verdadera matriz sea M2 es. la estrategia le garantiza al jugador fila un pago de 1. que es mayor que revelar completamente la información o conciliándola con la del jugador Columna. Sea G(p) pM1+(1-p)M2 el juego promedio y G*(p) el juego repetido en donde el jugador Fila sabe cuál matriz se escoge pero eso mismo no lo sabe el jugador Columna. y M2 con probabilidad 1-p.Pero ¿Cuándo ocurre cada caso? La respuesta general está en el siguiente magnífico resultado: Sean M1 y M2 dos juegos de suma cero de dos personas (ambas matrices de la misma medi-da). y supongamos que M1 se escoge con probabilidad p. 141 . Aumann y Maschler (1966) probaron que: La función (dependiendo de p) de valores minmax del juego repetido G* es igual a la convexificación de la función de valores minimax del juego G. Minmax de G Minmax de G* p G G* p Ejemplo juego 3 142 .Entonces. expliquemos este resultado: Minmax de G Minmax de G* 1 1 · ½ a priori 1 p 1/4 ½ a priori 3/4 1 p a posteriori Pago por revelación parcial de la información · Pago por revelación completa de la información p Pago por revelación completa de la información Pago si ignora su información 143 .Gráficamente. 0 M1 (Probabilidad=1/2 para ambos jugadores) M2 (Probabilidad=1/2 para ambos jugadores) a. 3/4 0. Fila y Columna obtienen 2.0 R 1.R) o (T.2 C 1. Supongamos que Columna supo cuál juego se va a jugar.L). El único equilibrio de Nash es (B. 144 .0 0. El único equilibrio de Nash es (T.0 0. 1/2 2.(Más información puede ser peor) L T B 1. 1/2 2.M).3 T B L 1. b. En ambos casos el pago de Columna es ¾: hubiera preferido ³no saber tanto´. 3/4 0.3 R 1. 2 C 1. coincidirán con los equilibrios de Nash mixtos del juego con información simétrica. simétrica. tienen la característica de que a medida que va desapareciendo esa perturbación. Harsanyi probó que: Los equilibrios de Nash bayesianos de un juego al que se le ha perturbado ³un poco´ la información simétrica (para convertirlo en un juego con información asimétrica). 145 .Equilibrios bayesianos y Equilibrios de Nash mixtos En 1973. 146 . y es un número ³pequeño´.1]. z2 L Prob. La tabla de arriba sí es conocimiento común y también la distribución de los tipos. t2 t2 R t1. tomado de Myerson (1991): Prob.Consideremos el juego siguiente con un poco de información perturbada. -1 -1. z1 T B t1. recíprocamente. El jugador 1 conoce su tipo t1. 1. pero no el del jugador 2 (t2). el jugador 2 conoce su tipo t2 pero no el del jugador 1 (t1). 3 donde t1 y t2 son variables aleatorias uniformes iid sobre [0. Y. 3 y tiene un único equilibrio de Nash (mixto) z1=3/4.Notemos primero que si =0 entonces el juego es uno con información simétrica: Prob. z2= 1/2 14 7 . 0 1. z2 L Prob. z1 T B 0. 0 R 0. -1 -1. y solo si. y solo si. 1.Y ahora vamos a calcular el (único) equilibrio bayesiano del juego perturbado: Prob.z1)( t2)> z1 (-1) + (1-z1 )(3) Es decir. sii t2 > (3 -4z1)/ 148 . z1 T B t1.z2)( t1)> z2 (1) + (1-z2 )(-1) Es decir. t1 > (2 z2 ± 1)/ ii) Por su parte. -1 -1. 3 i) El jugador 1 escoge T en lugar de B si. el jugador 2 escoge L en lugar de R si y solo si z1( t2) + (1. z2( t1) + (1. z2 L Prob. si. t2 t2 R t1. (2 z2 ± 1)/ z2= Probabilidad de que el jugador 2 escoja L = 1.(4.( +2)/( 2 +8) z2 = 1 . entonces: z1= Probabilidad de que el jugador 1 escoja T = 1.Como t1 y t2 son uniformes iid.(3-4 z1)/ Y resolviendo simultáneamente para z1 y z2 obtenemos que: z1= 1 .)/( 2 +8) Que son las probabilidades asignadas en el equilibrio de Nash bayesiano: 149 . 150 .)/( 2 +8) Note que si 0. alcanzamos el equilibrio de Nash mixto del juego con información simétrica.T J1(t1)= B si t1> ( +2)/( si t1< ( +2)/( 2 +8) +8) 2 L J2(t2)= R si t2> (4.)/( 2 +8) si t2< (4. 151 . Myerson probó un simple pero profundo y útil resultado: Todo equilibrio de Nash bayesiano de un juego con información asimétrica puede implementarse como un equilibrio del mismo juego bayesiano pero en el que las estrategias de los jugadores son los mismos tipos y en el que cada uno de ellos revela su verdadero tipo.El Principio de Revelación En 1979. incentivos. se llama un mecanismo (juego) con compatibilidad de incentivos. Y un juego bayesiano en el que revelar su propio tipo conforma un equilibrio bayesiano. 152 . Más adelante daremos una interesante aplicación del Principio de Revelación. como un mecanismo (juego) directo.Un juego bayesiano en el que las estrategias de los jugadores coincide con sus tipos se conoce directo. 153 . el término fue acuñado por Arrow (1971) en ³Essays in the Theory of Risk-bearing´. Un caso importante. aunque extremo. con respecto a los efectos adversos que la compañía de seguros puede tener sobre los contratos que firma con sus asegurados. Veamos un ejemplo muy importante donde aparece el riesgo moral: la discriminación de precios. En general. el riesgo moral es asociado con la existencia de acciones escondidas (³hidden actions´) en una relación contractual. es el de un asegurado contra incendios que decide quemar su casa para reclamar el seguro.Riesgo Moral Aunque este término proviene de la teoría de los seguros de vida. Por ello. los vuelos de temprano en la mañana y a horas altas en la tarde de días regulares. son las líneas aéreas que tienen el monopolio de una determinada ruta: pueden cobrarle una tarifa más alta a los clientes que viajan por negocios (pues éstos no tienen más remedio que viajar) que a los que van de vacaciones (pues estos pueden tener otras alternativas). Con estas prácticas. son. 154 . los más costosos.UNA APLICACIÓN: RIESGO MORAL Y PRINCIPIO DE REVELACIÓN EN LA DISCRIMINACIÓN DE PRECIOS ³Discriminar precios´ significa cobrar precios distintos a cada cliente o a cada mercado. el monopolista obtiene más beneficios que si cobrara un único precio en el mercado. Ejemplos de ello. normalmente. cobra distintos precios en estos países. por lo tanto. p2 Oportunidad para intermediarios ‡ p1 ‡ p1 155 . En la gráfica se observan dos curvas de demanda distintas y. Y esto da origen a los intermediarios que compran en un país y venden en el otro.Otro ejemplo de esto es el monopolista que vende el mismo producto en dos países diferentes. el aperitivo es gratis para mayores de 60 años´. Discriminación de segundo grado (o colocación de precios nolineales (nonlinear pricing). Por ejemplo. la factura telefónica. etc. promociones tipo ³Martes del Descuento para los que cumplan años´. Pigou (1920) clasificó este fenó-meno en tres tipos: Discriminación de primer grado. 156 .C. ³Happy Hour´. que consiste en aplicarle distintos precios a distintos compradores. Un médico rural es un caso típico. Aquí se incluyen negociaciones (y regateos) sobre el precio del bien. que consiste en aplicarle al comprador el máximo precio que esté dispuesto a pagar por unidad del bien. compras en grandes cantidades. Discriminación de tercer grado. Por ejemplo.El economista británico A. que consiste en aplicarle al comprador un precio diferente dependiendo del número de unidades que compre. ³Los viernes. Un ejemplo sencillo de discriminación de tercer grado con información simétrica Un vendedor monopolista tiene dos tipos de compradores. tipo 1 y tipo 2. . y la función de costos es C(Y)= Y2 . 1-6y2-2y1=0 Resolviendo simultáneamente. Las curvas de demanda correspondientes son p1= 2-3y1. p*2= 18/22 157 . p2= 1-2y2. y*1=5/22 y así p*1= 29/22 . Y=y1+y2. Entonces el vendedor maximizará su beneficio = p1 y 1 +p2 y 2 ± (y1+y2)2 = (2-3y1)y1 + (1-2y2)y2 ±(y1+y2)2 y obtendrá. derivando con respecto a y1 y y2 e igualando a cero: 1.4y1-y2= 0. obtenemos que: y*2= 2/22. Le cobrará más al que tenga menor elasticidad (en valor absoluto) o.29/15 y la elasticidad-precio de la demanda del tipo 2 es -[p2/(1-p2)] = . es decir. la elasticidad-precio de la demanda del tipo 1 es .Por lo tanto. al tipo de comprador que sea ³menos sensible´ a un cambio de precios.9/2 El beneficio que obtiene el monopolista es *= p1 y 1 +p2y 2 ± (y1+y2)2 = 0. En efecto.[p1/ (2-p1)] = . Pero«¿por qué? La clave está en las elasticidades-precio de la demanda. lo que es lo mismo. le cobra menos al comprador de primer tipo que al de segundo tipo. 158 .2973. 318 Y el beneficio será = p Y .223). el beneficio será mayor si el monopolista discrimina ( =0. Maximizar p[ 7/6 ± 5p/6] .5p/6]2 Derivando con respecto a p e igualando a cero. Es decir.Si el monopolista no discrimina. Y* = y1 + y2 = 0. Así. obtenemos que: p*= 22.4 / 22 .2973) que si no discrimina ( =0.Y 2= 0. 159 . entonces el problema será Maximizar p Y(p) ± Y 2(p) donde Y= y1(p) + y2(p).[7/6 .223. Discriminación de precios con información asimétrica Un monopolista produce un bien a un costo marginal de y vende una cantidad de este bien a un consumidor. El consumidor recibe U0 = V(q) . El monopolista solo sabe que = b con probabilidad p. V¶¶<0 y T es la transferencia del consumidor al monopolista. y = a con probabilidad 1-p donde a> b. con V(0)=0. 160 . pero es información privada del consumidor. V es conocimiento común. V¶>0.T donde V(q) es su excedente bruto. ¿qué sucedería si el monopolista conociera el verdadero valor de ? Le ofrecería una cantidad q de tal forma que V (q)=c ( es decir. En primer lugar. escoger el consumo q y pagar T(q) o bien rechazar el mecanismo. Entonces el consumidor puede elegir entre aceptar el mecanismo. cobrándole una tarifa T= V(q) y maximizando su utilidad u0= T-cq).El juego procede como sigue: El vendedor ofrece una tarifa (quizás no-lineal) T(q) (con T(0)=0) que especifica cuánto pagaría el consumidor si escoge consumir q. 161 . Pero bajo información asimétrica la situación es distinta. En este caso.Tb) el plan destinado al consumidor de tipo b . Entonces el beneficio esperado del monopolista será E(u0)= p(Tb ±cqb) + (1-p)(Ta ±cqa) 162 . sea (qb .Ta) el plan destinado al consumidor de tipo a. Así. el monopolista ofrecerá un plan diferente dependiendo del tipo de consumidor (de alta o baja valoración del bien). y (qa. Estas son: V(qb)-Tb•0 a V(qa)-Ta•0 b V(q b)-Tb • b V(qa)-Ta a V(qa)-Ta • a V(qb)-Tb b (RI 1) (RI 2) (CI 1) (CI 2) 163 . que obligan al consumidor a consumir lo indicado para su tipo. que indican los incentivos de éste a participar en el juego.sujeta a restricciones de ³racionalidad individualidad´ (RI) por parte del consumidor. y restricciones de ³compatibilidad de incentivos´ (CI). este problema del monopolista se reduce a Maximizar E(u0)= p(Tb ±cqb) + (1-p)(Ta ±cqa) sujeta a b a V(q b)-Tb•0 V(q a)-Ta • a (RI 1) V(q b)-Tb (CI 2) Lo que nos lleva a maximizar.aV(q b) + bV(qb)-cqa) 164 . con respecto a qa y qb . la expresión E(u0)= = p(Tb ±cqb) + (1-p)(Ta ±cqa) = p( b V(qb)-cqb)+(1-p)( aV(qa). bajo nuestras hipótesis.Con algo de trabajo (ejercicio) se muestra que. Para obtener (asumiendo V¶(0)=0 y (1-p) < b/ (1que el equilibrio es: a p bV¶(qb) b =c p b -(1-p)( a ± b) (socialmente sub-óptimo) subaV¶(qa)= c (socialmente óptimo) 165 . JUEGOS CON INFORMACIÓN ASIMÉTRICA (II) 166 . A2.Tn para cada jugador y T = T1 X T2 X « X Tn.T.«.«. u) donde:  Un conjunto de jugadores N={1.  Los conjuntos de tipos T1.2. A. p.«.Un juego con información asimétrica (o juego bayesiano ) G es una tupla de la forma G=(N.An para cada jugador y A = A1 X A2 X « X An.  Los conjuntos de acciones A1. T2.n}. 167 . p=(pi)i N. una distribución de probabilidad pi (t-i | ti) ¨(T-i) y que representa la información que el agente i tiene sobre los tipos de los demás agentes dado su propio tipo.` Para cada jugador i. Se asume que la distribución pi (t-i | ti) de probabilidades condicionadas a posteriori se calculan mediante la regla de Bayes: Bayes p(t-i | ti) = p(ti | t-i) p(t-i) p(ti) Aquí. una conjetura (creencia) a priori (dada) pi: Ti ti ¨(T-i) pi (t-i | ti) que asigna a cada tipo ti de jugador i. 168 . tn) un vector de tipos. una acción ai(ti) Ai. ` Aquí. ti) ui(a. ` Para cada jugador i. ti) donde a=(a1.a2. 169 . u=(ui)i N.an) es un vector de acciones y t=(t1.t2.«. una función de utilidad ui: A x Ti (a.Una estrategia del jugador i es una función ai: Ti Ai que asigna a cada uno de los tipos ti del jugador i.«. an) = ™ ui(a1(t1). así: Ui(a1. ati-1(ti -1). ai. a partir de las funciones ui. unas nuevas funciones de valor esperado Ui del juego.a2. ti ) pi(t-i|ti) t-i T-i (Función de utilidad esperada) Un equilibrio bayesiano es un equilibrio de Nash de un juego bayesiano con funciones de utilidad definidas por Ui. an(tn).Ahora: para definir la noción de equilibrio bayesiano. construimos. 170 . ati+1(ti+1).«. a2(t2)«. Juegos Extensivos con información asimétrica y Equilibrio Bayesiano Perfecto Estáticos con información simétrica ³Dinámicos´ con información simétrica Estáticos con información asimétrica Dinámicos con información asimétrica Equilibrio de Nash Equilibrio de Nash Perfecto en Subjuegos Equilibrio de Nash Bayesiano Teoría de juegos No-cooperativos Equilibrio de Nash Bayesiano Perfecto 171 . Primer Ejemplo (El Caballo de Selten (1975)) 1· I C 2 p D (2.6) · D (3.1) D (1.3) I (0.5) 172 .2) · 1-p I (-1. 6 3. I I C D 2. (C.3 D 2.5 Equilibrios de Nash puros: (I.2 1.En este juego.I).1 -1. Basta entonces calcular los equilibrios de Nash del juego estratégico.6 0. 173 . todos los equilibrios de Nash coinciden con los ENPS.D). Supongamos que el jugador 2 sabe que tiene la posibilidad de jugar. es decir. Entonces. sabe que el jugador 1 no jugó I. el jugador 1 no va a jugar I al comienzo ya que eso le daría un pago de 2 que es menor que 3 que es su pago si juega C. 174 . esto lo va a obligar a nunca escoger I pues solo para p•2 se tiene que p(1) + 3(1-p) • 2p + 5(1-p) 3(15(1(Pago por escoger I • Pago por escoger D) Por su parte. como el jugador 2 sabe que el jugador 1 va a escoger C con probabilidad p. y va a escoger D con probabilidad 1-p. el jugador 2 debe asumir que 1 va a jugar C. 175 . etc. Pero para que esto sea posible. es decir. (es decir. si hay conocimiento común de las creencias).Pero«¿Cómo sabe el jugador 2 que tendrá la oportunidad de jugar? Solo si así lo cree y sabe que su oponente también lo cree. debe asumir que p=1. daremos un ejemplo típico de esto. modelando mediante un juego de señales. En lo que sigue. debido a que esto es conveniente para ellos. 183 . una de las claves es qué información privada se revela a partir de las acciones de los agentes (incluyendo allí la información que revelan aquellos que deciden no actuar). Es el caso de aquellos que prefieren enviar una señal que los identifique como algo que no son.Juegos de Señales En problemas de información asimétrica. de manera directa. Pero esto no lo sabe. el que lo contrata. Por ello. Una estrategia típica es llevar a los trabajadores potenciales a realizar alguna actividad que no sea muy atractiva para el perezoso pero sí para el buen trabajador. que los empleadores revelen la verdad mediante algún mecanismo. en lo posible. el empleador buscará.El problema de contratar a un trabajador Aquel que solicita un trabajo puede saber si es un buen trabajador (capaz y con buena pro-ductividad) o un mal trabajador (perezoso y con baja productividad). ¿Qué podría suceder en una situación así? 177 . Una forma de modelar este tipo de situaciones es mediante un juego de señales. los trabajadores son de dos tipos (con problemas en la espalda y sin ellos). Allí. 178 . donde cada uno de ellos sabe qué tipo de trabajador es. (0.1] El empleador no entrena El empleador no entrena · Silla ejecutiva El empleador entrena · Silla ortopédica · El empleador entrena (2.-1) Naturaleza (3.0) Trabajador con mala espalda [0.9.9] · El empleador entrena (3. 0) El empleador no entrena · El empleador entrena Silla ejecutiva Silla ortopédica · Trabajador con buena espalda [0. 1) Juego de señales 179 .-1) (1.0) (1.0) El empleador no entrena (0.9.1) (2. Ejemplo #4: Una primera aproximación al problema del uso óptimo de la información Una de las más interesantes aplicaciones de la información asimétrica es al Folk Theorem (Teorema Popular). El problema es cómo sacar ventaja competitiva o cooperativa a partir de la información que se revela. donde diferentes jugadores tienen diferente conocimiento de los parámetros relevantes del juego estático que se juega repeti-damente. 180 . y ya no tendría la ventaja del principio. el jugador informado recurrirá a su información tanto como sea posible. En la interacción de una sola vez. 181 . entonces el otro jugador. supongamos que un jugador (el ³jugador informado´) tiene información privada que el otro jugador no posee. observando las acciones tomadas por el jugador informado. podría inferir cuál era la información privada. si la situación se repite. Sin embargo.Para fijar ideas. El problema es cómo hacer que la información que se está revelando sea creíble al otro jugador.Un problema. es encontrar el correcto balance: utilizar la información tanto como sea posible. 1967 y 1968) durante la Guerra Fría. entonces. Y otro problema es que hay situaciones en donde el jugador informado querrá revelar información a otros de tal manera que las acciones de ellos le beneficien. Entender estos problemas en el marco de los juegos repetidos de suma cero. pero a la vez revelar cuanto menos sea posible. fue parte del trabajo de Aumann y Maschler (1966. 182 . Primero. solo hay dos jugadores que juegan repetidamente el juego. 183 . En los tres juegos de suma cero (el jugador fila maximiza pagos y el columna minimiza) que presento a continuación. El jugador columna no sabe esto: cree que las dos matrices son igualmente probables. sin importar lo que haga su opositor en el juego. comenzaremos por determinar cuánto es lo mínimo que puede garantizarse el jugador informado. En cada caso estudiaremos la individualidad racional del jugador fila que es el jugador informado de cuál de las dos matrices del juego es la verdadera. Después de cada etapa solo se saben las acciones que se tomaron en las etapas precedentes pero no los pagos. analicemos el problema de la individualidad racional. es decir. JUEGO 1 L T B 4 0 R 0 0 T B L 0 0 R 0 4 T B L 2 0 R 0 2 M1 (Probabilidad=1/2) M2 (Probabilidad=1/2) (1/2)M1 + (1/2)M2 Fila juega T entonces Columna juega R Fila juega B entonces Columna juega L En el largo plazo. un pago de 2 si ignora su propia información y opera ³conciliando´ con Columna Fila obtiene más ignorando su propia información 184 . Fila obtiene 0 pues indicó cuál era la verdadera matriz Fila obtiene. mínimo. JUEGO 2 L T B 4 4 R 4 0 T B L 0 4 R 4 4 T B L 2 4 R 4 2 M1 (Probabilidad=1/2) M2 (Probabilidad=1/2) (1/2)M1 + (1/2)M2 Fila juega T Fila juega B En el largo plazo. Fila obtiene 4 indicando cuál era la verdadera matriz Fila obtiene un pago máximo de 3 si ignora su propia información y opera ³conciliando´ con Columna. Fila obtiene más utilizando su propia información 185 . Fila obtiene 0 pues indicó cuál era la verdadera matriz Fila obtiene un pago de 0 si ignora su propia información ¿Da lo mismo revelar completamente la información o ignorarla? 186 .JUEGO 3 L T B 4 4 C 2 -2 R 0 0 T B L 0 0 C -2 2 R 4 4 T B L 2 2 C 0 0 R 2 2 M1 (Probabilidad=1/2) Fila juega T entonces Columna juega R M2 (Probabilidad=1/2) Fila juega B entonces Columna juega L (1/2)M1 + (1/2)M2 Columna juega C En el largo plazo. No. 1/4 Si M2: Jugar B por siempre con prob. 3/4 187 . 3/4 Si M1: Jugar B por siempre con prob. 1/4 Jugar T por siempre con prob. Sea la estrategia de Fila dada por: Jugar T por siempre con prob. porque revelando parcialmente la información el jugador Fila puede esperar más. que es mayor que el 0 (cero) que obtiene tanto revelando totalmente la información como ³conciliando´ con Columna. tenemos dos casos: a) Fila juega T siempre b) Fila juega B siempre 188 .Veremos que la estrategia de revelación parcial de la información le garantizará a Fila un pago esperado de 1. Para que veamos lo que sucede. la probabilidad (posterior) de que la verdadera matriz sea M1 es. P(T|M1)P(M1) P(M1| T)= P(T|M1)P(M1) + P(T|M2)P(M2) (3/4)(1/2) = (3/4)(1/2) + (1/4)(1/2) =3/4 189 . por la regla de Bayes.a) Después del primer período. (en el que Fila jugó T). P(T|M2)P(M2) P(M2| T)= P(T|M2)P(M2) + P(T|M1)P(M1) (1/4)(1/2) = (1/4)(1/2) + (3/4)(1/2) =1/4 190 .Por su parte. por la regla de Bayes. la probabilidad (posterior) de que la verdadera matriz sea M2 es. después del primer período. (en el que Fila jugó T ). La subasta de segundo precio (ver M y A (eds. 3. 191 .)).1. El problema de bienes públicos con información asimétrica (ver M y A (eds.)). Calcule los pagos del juego #3 con informa-ción simétrica. Identificar los elementos de un juego bayesiano en los ejemplos estudiados en esta clase magistral. 4.)). 5. 2. El problema de Cournot con información asimétrica en los costos (ver M y A (eds. ¿Llevará esto a que los dos agentes cooperen casi siempre como un ENPS? 192 . una probabilidad ³pequeña´ de que el agente 1 coopere siempre).(Para el parcial #2 (segunda serie de ejercicios)) Estudiar el Dilema del Prisionero repetido con ³un poco´ de información asimétrica (por ejemplo.6. JUEGOS EVOLUTIVOS (I) 193 . DEFINICIÓN DE UN JUEGO EVOLUTIVO Consideremos un juego en forma estratégica en el que ambos jugadores tienen el conjunto S={s1. A esta matriz A se le llamará el juego de estado estado.sn} de estrategias puras. representa el juego total pues la traspuesta AT representará los pagos del jugador 2. Asumiremos que el juego es simétrico en pagos y en estrategias (no importa quiénes 1 o quién es 2).«. 194 . Los pagos cuando el agente 1 juega la estrategia si S y el agente 2 juega la estrategia sj S. Así una sola matriz A con los pagos del jugador 1. es ij para el jugador 1 y ji para el jugador 2.s2. los agentes se encuentran por parejas a jugar el juego de estado A.Continuando con la construcción de un juego evolutivo. es = p1s1+p2s2+«+pnsn 195 . diremos que el estado de la población. iv) Si la proporción de agentes de tipo j es pj en un tiempo en particular. ii) En cada período de tiempo t. iii) Si un agente juega la estrategia si. evolutivo asumiremos lo siguiente: i) Una población grande de agentes. diremos que es de tipo i. en ese tiempo. 12 10 8 Gen 1 Gen 2 Gen 3 Gen 4 Gen 5 Gen 6 Gen 7 6 4 2 0 Población en el tiempo t 196 . v) El pago a un jugador de tipo i cuando el estado de la población es . bajo las condiciones i) a v) anteriores. Un juego evolutivo (simétrico) lo conforma un juego de estado A. N={1. 197 . está definido por: i Agente que entra a la población = ™p j j N Población que está ij .2.«n} Este mide la mejor o peor disposición al proceso de selección natural. «n} 198 .DEFINICIÓN DE UN A ESTRATEGIA EVOLUTIVAMENTE ESTABLE En primer lugar.«n} y se ³mezcla´ con otra población (status quo) (status quo) que está en estado = ™ jpjsj N N={1.2. si la población (entrante) está en estado .2. = ™qNsj j j N={1. 2. de la población .j N ij N={1. es decir.2.«n} 199 . será = ™ pipj i. N={1.i) Entonces el pago esperado de un jugador de la población mezclada será = ™ qipj i.«n} ii) Y el pago esperado por un jugador (aleatoriamente escogido) del status quo.j N ij . 12 10 8 6 4 2 0 Población Población Población Población Gen 1 Gen 2 Gen 3 Gen 4 200 . 201 . Maynard Smith (1982)) Diremos que una población * es evolutivamente estable (EEE) si no puede ser ³invadida´ por ninguna población mutante . si: i) ii) * * • * * Si = * para toda población mutante * entonces * > Esto significa que si * es invadida por entonces el pago esperado por un jugador (aleatoriamente escogido) del status quo * es mayor o igual que el pago esperado por un jugador de la población mezclada. entonces el status quo * puede invadir con éxito a la población mutante . Es decir. Pero dice algo más: que si estos dos últimos pagos esperados son iguales.DEFINICIÓN DE ESTRATEGIA EVOLUTIVAMENTE ESTABLE DE UN JUEGO EVOLUTIVO (J. La población 12 10 8 6 4 2 0 Población Población * * * se ³defiende´ del mutante Gen 1 Gen 2 Gen 3 Gen 4 * Tiempo de Tiempo de Tiempo de Población interacción interacción interacción * * 202 . Teoremas sobre EEE i) Toda EEE de A (como juego evolutivo) es un equilibrio de Nash de A (como juego estra-tégico): estra-tégico) Comentario1:¿Racionalidad como producto de la evolución? Comentario 2: Toda EEE es un equilibrio de Nash con cierta propiedad de ³estabilidad evolutiva´ que resiste a presiones de mutación (por ejemplo. experimentación y aprendizaje). 203 . Es similar a cuando mostrábamos que un equilibrio de Nash no explicita ninguna dinámica hacia la racionalidad interactiva. EEE.Comentario 3: La definición de una EES no explicita ninguna dinámica de evolución. tener ninguna EEE. ii) Todo juego evolutivo finito (finito número de ii) estrategias) tiene un número finito de EEE (a diferencia de los equilibrios de Nash que puepueden ser infinitos). puede no infinitos). 204 . Sin embargo. iii) Toda EEE es un equilibrio de Nash aislado iii) aislado. Una ³definición biológica´ equivalente de EEE, es la siguiente (Ejercicio1): Diremos que una población * es evolutivamente estable (EEE) si para toda población mutante y toda mezcla de estas dos, = con + (1- ) * suficientemente pequeño, se tiene que: * La que entra > La que está Esto significa que una población * es EEE si para vencer a cualquier población mutante (invasora) , basta con ³vacunarse´ con un poco de la población de ésta. 205 Ejemplos 1. El Juego de Coordinación A= D 2 I 0 0 2 Los equilibrios de Nash son, dos puros (que son EEE) y uno mixto (que no es EEE): i) *=D es EEE pues: (D,D) = 2 = ( =pD+(1-p)I, D) =p(2)+(1p)(0)=2p cuando p=1. Por lo tanto, no existe mutante (es decir,  *) que satisfaga (D,D)= ( , D) . Por lo tanto, la propiedad se satisface ³vacíamente´. ii) Similarmente *=I es EEE. 206 iii) El equilibrio de Nash mixto *=1/2(D) + (1/2)I no es una EEE, pues aunque la condición 1= ((1/2)D+ (1/2)I , (1/2)(D) + (1/2)I )= (p(D) + (1-p)I , (1/2)D + (1/2)I )= p + (1-p)=1 siempre se da (es decir, para cualquier p), la condición 1= ((1/2)D + (1/2)I , p(D) + (1-p)I ) > (p(D) + (1-p)I , p(D) + (1-p)I ) = p(2p)+(1-p)(2(1-p)) = 2-4p+4p2 o, lo que es lo mismo, (1-2p)2<0 es siempre falsa. 207 2. El Juego de ³Halcón y Paloma´ A= D H -2 0 0 -1 Los equilibrios de Nash son, dos puros (que no son EEE) y uno mixto (que sí es EEE). Probaremos aquí esto último, dejando, como ejercicio, probar que los dos equilibrios de Nash puros no son EEE. 208 El equilibrio de Nash mixto *=(1/3)D+ (2/3)H es una EEE. En efecto, vemos inicialmente que la condición se da siempre: * * = * * * = 1/3[1/3(-2)+(2/30)] + 2/3[ 1/3(0) + (2/3(-1)] = -2/3 =(1/3)[q(-2)+(1-q)(0)] + (2/3)[ q(0) + (1-q)(-1)] = -(2/3)(q) ±(2/3)(1-q)=-(2/3) y * 209 Entonces se prueba que * > . ((1/3)D+ (2/3)H . lo que es lo mismo. 210 . nos lleva a que (1+3p)2>0 . es decir. que es siempre cierta. qD+ (1-q)H) > (qD+ (1-q)H. qD+ (1-q)H) Y esto nos lleva a que: -2/3 > -3q2+2q-1 o. En efecto. pues: * * = -4 . El Dilema del Prisionero [q] A= C NC -1 0 -5 -4 El único equilibrio de Nash es *= 0(C)+(1)NC y es el único EEE.3. vemos que la condición (con =q(C) + (1-q)NC ) * * = * se da solo cuando q=0 . * =(-4)(1-q) Y así nunca puede ser mutante. 211 . una técnica. Un replicador pue-de ser un gen.El actor central de un sistema dinámico evolutivo es el replicador. una conven-ción. o incluso formas institu-cionales o culturales más generales. 212 . una moda. una creencia. un organismo. Esta es una enti-dad que tiene replicador manera de hacer copias muy aproximadas de sí misma. una estra-tegia. 2.2. Si pit es la fracción de jugadores que son de tipo i en el tiempo t.2.Dinámica del Replicador Consideremos un juego evolutivo donde ca-da jugador sigue una de sus i=1.«.n 213 .D t ) i=1.n es-trategias puras y todos los periodos t=1.«.3. y it es el correspondiente pago esperado recibido.3.«. entonces la dinámica del replicador está definida por el sistema dinámico dpit /dt= pit ( it . n pit it es el pago promedio de la población total. 214 . A un equilibrio asintóticamente estable de la dinámica del replicador se le llama un equilibrio evolutivo. la frecuencia de una estrategia (gen) aumenta cuando está por encima del promedio. evolutivo. Así.«. y disminuye cuando está por debajo.donde D t = 7i=1. bajo la dinámica del replicador. PB>0 entonces B = C y así (1-PB ) B = (1-PB ) C (1(1o bien. Sin embargo. (1B = PB B + (1-PB ) C =D Y entonces surge la pregunta: ¿Será que la dinámica del pregunta: replicador representa una dinámica plausible de convergencia a los equilibrios de Nash? 215 . por ejemplo. podría sistema. uno preguntarse: ¿Y cómo se transmite la señal agregada preguntarse: de la media de comportamiento al gen para que éste se reproduzca? De otro lado: Podemos ilustrar en el caso 2x2 (con estrategias B lado: y C).Notemos que la dinámica del replicador no es una dinámica de mejor-respuesta dada la distribución de frecuencias en el período anterior: los agentes aquí tienen un conocimiento limitado y localizado del sistema. que todo equilibrio de Nash del juego es un equilibrio de la dinámica del replicador pues si. esto se modela adicionando a la dinámica del replicador procesos estocásticos (cadenas Markov. Por lo tanto la dinámica determinística del replicador no puede tratar problemas de mutación e innovación. pero si en un instante del tiempo no está representado por en una población. etc.Notemos también que un replicador puede llegar a extinguirse. lo que es una contra-dicción. nunca más lo estará: Si Pt=0 y Pt+1>0 entonces a partir de Pt+1 ±Pt = Pt( -D ) Se obtiene que pt+1=0.) que permite la emergencia espontánea de replicadores 216 . Normalmente. Path Dependen-ce. Dinámica del Replicador 12 10 8 6 4 2 0 Tiempo t=1 Tiempo t=2 Tiempo t=3 Tiempo t=4 Tiempo t=5 217 Gen 1 Gen 2 Gen 3 Gen 4 . [PC] A= C NC -1 -5 0 -4 C = gen altruista NC = gen egoísta C = -PC -5(1-PC)= -5+4PC NC = 0PC + (-4)(1-PC) = 4PC .4 218 . En efecto.Ejemplos 1. además. El Juego de ³El Dilema del Prisionero: El Prisionero: equilibrio de Nash puro *=NC (no cooperar) es la única EEE y. es el mismo equilibrio evolutivo del juego. PC ] [4PC .4 ] = 3 PC . PC =1 Equilibrio Evolutivo: 100% gen egoísta · PC =0 Diagrama de fase · PC =1 Note que si 1> PC >0 entonces PC (PC -1) < 0.4 dPC/dt = PC ( C . 219 .D = PC C + PNC NC = = [PC ] [-5+4PC] + [1.D ) = PC (PC -1) Dinámica del Replicador Equilibrios de la dinámica de replicador: PC =0 . Dinámica del Replicador en el Dilema del Prisionero 14 12 10 8 6 4 2 0 Tiempo t=1 Tiempo t=2 Tiempo t=3 Tiempo Equilibrio t=4 evolutivo Gen altruista ( C ) Gen egoista (NC) 220 . además.1 D = PD = + PH H = [PD] [-2PD] + [1. En efecto.1] = -3 (PD ) 2 + 2 PD -1 221 .2. PD A= D H -2 0 0 -1 D = gen pacífico H = gen agresivo D = -2PD -0(1-PD)= -2PD D H= 0PD + (-1)(1-PD )= PD . El Juego de ³Halcón y Paloma´: El equilibrio Paloma´: de Nash mixto *=1/3(D) + (2/3)H es una EEE y. es el mismo equilibrio evolutivo del juego.PD] [PD . 4 PD +1) D = PD( 3 PD -1 )( PD -1) Dinámica del Replicador Equilibrios de la dinámica de replicador: PD=0 .66 % gen agresivo · PD=0 +++++++ ---------------PD=1/3 Diagrama de fase · · PD=1 222 .33% gen pacífico + 0.dPD/dt = PD( .D ) = PD( 3 (PD ) 2 . PD=1 Equilibrio Evolutivo: 0. PD=1/3 . Dinámica del Replicador en ³Halcón y Paloma´ Paloma´ 9 8 7 6 5 4 3 2 1 0 Tiempo t=1Tiempo t=2Tiempo t=3Tiempo t=4 Equilibrio evolutivo 223 Gen pacífico Gen agresivo . 2PD +1 224 . Los equilibrios de Nash puros son los equilibrios evolutivos del juego. En efecto.3. El Juego de ³Coordinación´ . PD A= D I 2 0 0 1 D = gen derecha H = gen izquierda D = 2PD -0(1-PD)= 2PD D I= 0PD + (1-PD )= (1-PD ) D = PD = + PI I = [PD] [2PD] + [1.PD] [1-PD ] = 3 (PD ) 2 . .-· PD=0 ++++++++++++ · PD=1/3 Diagrama de fase · PD=1 225 .dPD/dt = PD( D- D ) = PD( 1-3PD ) ( PD .. PD=1/3 . PD=1 Equilibrios Evolutivos: 100% gen pacífico + 0% gen agresivo..1) Dinámica del Replicador Equilibrios de la dinámica de replicador: PD=0 .. 0% gen pacífico +100% gen agresivo ... Dinámica del Replicador en el juego de ³Coordinación´ (Caso I) 14 12 10 8 6 4 2 0 Tiempo t=1 Tiempo t=2 Tiempo t=3 Tiempo t=4 EEE Gen derecho Gen izquierdo 226 . Dinámica del Replicador en el juego de ³Coordinación´ (Caso II) 14 12 10 8 6 4 2 0 Tiempo t=1 Tiempo t=2 Tiempo t=3 Tiempo t=4 EEE Gen derecho Gen izquierdo 227 . Equilibrios de la dinámica del replicador Equilibrios Nash Equilibrios estables de la dinámica del replicador Equilibrios evolutivos Estrategias evolutivamente estables 228 . 0 -2. 1 1. una estrategia es EEE si y solo si es un equilibrio asintóticamente estable de la dinámica del replicador.Teorema . 4 S3 1. 1 S2 1. -2 0. esto solo es cierto en este caso. En un juego 2x2. 1 4. Sin embargo.0 229 . 0 1.1 0. Y un contraejemplo importante (van Damme (1991)) es el siguiente: S1 S1 S2 S3 0. ½) entonces tendríamos que ( . pero que no es una EEE pues nótese que ( *. pero si tomamos =(0. Y así puede invadir a *. )= 5/4 > ( *. )=7/6.1/3) que es asintóticamente estable en la dinámica del replicador. *)=2/3 .1/3. 230 . ½.cuyo único equilibrio de Nash es *=(1/3. la diferencia de la dinámica estocástica con respecto a la dinámica del replicador. bajo condiciones muy plausibles un sistema estocástico con dinámica del replicador. si la probabilidad de error sea positiva. 2. se hace arbitrariamente pequeña con probabilidad arbitrariamente cercana a 1. Sin embargo.Dos notas finales 1. hará transiciones regulares de un equilibrio evolutivo a otro (ver Samuelson (1997)). 231 . Cuando las mutaciones se hacen pequeñas. Ejercicios 1. Pruebe que en el juego general ³Halcón y Paloma´ Halcón (H) Paloma (D) (V-C)/2 0 V V/2 donde V = valor de cierto recurso. los dos equilibrios de Nash puros no son EEE. C = costo de agredirse al tratar de obtener el recurso (C>V). pero sí lo es la estrategia en que la proporción de halcones es V/C. 232 . 3. Pruebe lo afirmado sobre el contraejemplo de van Damme (1991). ¿Este contraejemplo arroja dudas sobre la consistencia de los equilibrios asintóticamente estables de la dinámica del replicador como comporta-mientos evolutivos estables de largo plazo? 233 .2. Pruebe que el juego ³Piedra-Papel-Tijera´ no tiene EEE a pesar de tener un único equi-libro de Nash. 4. Considere el siguiente juego de alianza comercial (joint venture): In In Out 2. Pruebe que la estabilidad evolutiva dirige nuestra atención al equilibrio de Nash ³más plausible´. las EEE y los equilibrios evolutivos.In).0 Out 0. es decir.0 Y calcule los equilibrios de Nash. a (In.2 0. ¿Podría justificar este equilibrio afirmando que resulta porque los agentes evitan las estrategias débilmen-te dominadas ya que es la única estrategia nodominada? 234 .0 0. 5. Según lo visto en esta clase, ¿podría considerarse que la economía basada en modelos evolutivos es ³economía neoclásica´? En particular, ¿Existe algún proceso de optimización allí? ¿Es un modelo de economía con ³racionalidad acotada´? ¿Los equilibrios de Nash son alcanzados ³conscientemente´? Es decir, ¿son modelos con racionalidad consciente? 6. Pruebe que la dinámica del replicador elimina estrategias estrictamente dominadas. ¿Podría ser una de estas una EEE? 235 JUEGOS EVOLUTIVOS (II): DINÁMICAS ESTOCÁSTICAS 236 1. El modelo de Kandori-Mailath-Rob (1993) Kandori-Mailath- (Learning, Mutation and Long Run equilibrium in Games. Econometrica 61:29-56 (1993)) a) Comenzamos con un juego simétrico en forma estratégica jugado por una población de N jugadores, cada uno caracterizado por una estrategia pura. En cada período los jugadores se encuentran por parejas a jugar el juego. Cada uno tiene la misma probabilidad de encontrarse con sus oponentes. Al final del período, todos los jugadores pueden ³aprender´, es decir, podrían cambiar su estrategia a una ³mejor-respuesta´ (condición de racionalidad) con respecto al estado actual de la población. Pero esto, como veremos, no es esencial. b) c) 237 d) Después del aprendizaje, ocurren las ³mutacio-nes´ (errores, experimentaciones, etc.) e)Cada jugador puede ser un ³mutante´ con probabilidad ; es decir, en cada período, una proba-bilidad de que un agente juegue una estrategia distinta de la ³mejor-respuesta´. f) Se modela la incertidumbre mediante un proceso de Markov con solo dos estrategia (X y Y), siendo el espacio-estado el conjunto de jugadores {1,2,«,N}, y donde el estado se identifica por el número de agentes que juega la estrategia X. Se asume que la matriz de transición (matriz de probabilidades) es estrictamente positiva. 238 Bajo estas hipótesis es bien sabido que existirá una distribución estacionaria que es única independiente de las condiciones iniciales y con probabilidad positiva en todos los estados. Pero entonces«¿cuál es resultado del modelo KMR? Inicialmente es este: Si es suficientemente pequeño, entonces la distribución estacionaria concentrará casi toda su probabilidad en sólo unos pocos estados. Pero dice algo más. Consideremos el juego simétrico de coordinación 239 7 8.X X Y 9.0 Y 0.9 7.8 Entonces el diagrama de fase sin choques estocásticos será el siguiente.8 · 1 (todo X) 240 . en donde el eje mide la proporción de la población que juega la estrategia X: · 0 (todo Y) · 0. 8 corresponde al equi-librio mixto. Está claro entonces que el sistema siempre se aproxima a un equilibrio. 241 . que es donde todos juegan Y. y la proporción convergerá al equilibrio 1. La proporción 0. es decir. entonces la proporción convergerá al equilibrio 0. entonces X es la mejor respuesta.X)).Y)) hasta 1 (que corresponde al equilibrio (X.Ésta va desde 0 (que corresponde al equilibrio (Y. la mejor respuesta es Y). Si la proporción que juega X inicialmente. Pero si más del 80% juega X. donde todos juegan Y. es menos que el 80% (y así. pero a cuál de ellos exactamente. depende de cómo esté distribuida la proporción inicial. Y). el sistema gasta virtualmen-te todo su tiempo en el equilibrio (Y. para una probabilidad de mutación suficientemen-te pequeña.Sin embargo. sin importar cuál sea la condición inicial. El diagrama de fase muestra que se necesitan más mutaciones (80% de la población) para hacer de X una mejor-respuesta en una po-blación donde todos juegan Y. que llevar a cabo la transición inversa (que requiere solo de 20% de mutantes). 242 . Esto hace que la primera transición sea más probable. sumergiendo este modelo de coordinación dentro de la estructura de KMR ellos prueban que. haciendo que toda la probabilidad de la distribución estacionaria se acumule en el equilibrio (Y. Surge entonces la pregunta del porqué la diferencia de resultados entre el modelo determinista y el estocástico. La segunda tiene que ver. con ³saltos´ aleatorios entre equilibrios.Y). El primero consiste en la aproximación (y alcance) al equilibrio. Aquí llegamos al concepto de equilibrio de largo plazo y de ultra-largo plazo muy común en modelos evolutivos. además de los anterior.Cuando la probabilidad de mutación se hace pequeña. la primera transición se hace arbitrariamente más probable. 243 . de empresarios y sindicalistas. etc. uno simétrico. Ahora veremos cómo. Nota sobre juegos evolutivos asimétricos Los juegos asimétricos surgen debido a que diversas poblaciones juegan papeles diferen-tes. Por ejemplo.2. podemos hacer de un juego asimétrico. para aplicarle toda la teoría anterior. los agentes en una tran-sacción pueden tener roles de comprador y vendedor. de proponentes y aceptantes. 244 . la estrategia del juego simétrico asociado es un ³plan de contingencias´ y los pagos asociados en el juego simétrico aso-ciado estarán determinados por los valores esperados del plan de contingencias. 245 . y una estrategia a ser jugada en el papel del jugador II en el mismo juego. Es decir.Las estrategias del juego simétrico es una elección de la estrategia a ser jugada en el papel del jugador I en el juego asimétrico. 2 No A · I B · B 3.3.1 0.0 2 2 Sí II No 0 0 3 1 246 .2 A 2. El juego de ³El Ultimátum´ Consideremos el juego simplificado de El Ultimátum en forma normal y extensiva: Sí 2. intuitivamente. Note que ³No´ es una estrategia débilmente dominada para el jugador 2. que un proceso evolutivo ejercería suficiente presión constante sobre esta estrategia hasta eliminarla. recibiendo pagos respectivos de (3.Un equilibrio de este juego es el ENPS calculado por inducción hacia atrás: El jugador 1 hace una oferta baja y el jugador 2 la acepta. Sin embargo hay otros equilibrios de Nash identificados por correspondencias de mejor.respuesta: El jugador 1 hace una oferta alta (A) y el jugador 2 juega No con probabilidad de al menos 1/3. 247 . y podría creerse.1). No) Equilibrios de Nash ordinarios ENPS Y (B.1/3 (A.2 B 3.1 0. No) [X] [Y] A 2. Sí) · (A. Sí) · X Sí No 2.2 (B.0 248 . Sí) · X (B. No) Equilibrios de Nash ordinarios ENPS Y (B. dY/dt= Y(1-Y)(3X-1) dY/dt= Y(1-Y)(3X1/3 (A.La dinámica del replicador es: dX/ =X(1-X)(YdX/dt =X(1-X)(Y-1) . No) 249 . Sí) (A. 1( ½ ± X) X(1-X)(YdY/ dY/dt = 0. inicialmente. existe más presión evolutiva por X=1 (es decir.01( ½ -Y) Y(1-Y)(3XEs decir.99 Y(1-Y)(3X-1) + 0. por población que ofrece B (oferta baja e inequitativa).Ahora consideremos una versión perturbada de la anterior dinámica del replicador: dX/ dX/dt = 0. El valor 1/2 de arriba es una división igual de la población en X e Y.9 X(1-X)(Y-1) + 0. 250 . por población de dice ³No´ al trato inequitativo) que por Y=1 (es decir. No) 251 .La nueva dinámica del replicador permite ver la aparición de un nuevo equilibrio evolutivo!!! En él. Sí) · X (B. No) Nuevo equilibrio evolutivo · Equilibrios de Nash ordinarios ENPS Y (B. Sí) 1/3 (A. parte de la población le dice ³No´ a la propuesta inequitativa. (A. en modelos de negociación. como nos lo enseña la literatura de teoría de juegos clásica sobre refinamientos de equilibrio? En particular. 2. ¿Acaso la teoría de juegos evolutivos nos enseña que no deberíamos ser tan rápidos en aplicar criterios de dominancia o de inducción hacia atrás. 3. ¿Acaso es este un ejemplo de la aparición de cierto ³sentido de justicia´ como producto de la presión evolutiva? Experimentos mostrarían que el ³contexto´ importa. estas sospechas sobre este tipo de selección de equilibrios. es sustancial.Tres Comentarios y una Afirmación 1. 252 . contratación e intercambio. la extrema mayoría de nuestra atención se concentra en modelos con equilibrios ya sea porque tenemos la esperanza de que el comportamiento de equilibrio es suficientemente persistente y que el comportamiento de desequilibrio es suficien-temente suficientransitorio como para que el com-portamiento comrobusto sea el de equilibrio. ¿Justifica la evolución la noción de equilibrio de Nash? Ninguno de nosotros. cree que los mercados están siempre en equilibrio. Sin beneficios. Tamporque al estudiar el com-portamiento de equilibrio comcreemos alcanzar suficiente entendimiento del más efímero comportamiento de desequilibrio. desequilibrio. Tam-bién lo hacemos equilibrio. embargo.4. estoy casi seguro. así como tampoco cree que la gente es siempre racional sobre la base de que maximiza utilidades o beneficios. 253 . 42 12. Por ejemplo. 0 Y 0. 40 20. Battalio.40 X 45. 45 35. 45 42. similares corresponden-cias de mejor respuesta y similares diagramas de fase bajo la dinámica del replicador (la misma del modelo KMR): 0 Todo Y · 0. Samuelson y van Huyck (2001) estudian los tres juegos de abajo: X Y X 45.8 · ·1 Todo X 254 .Perspectiva principal de la Teoría de Juegos Evolutivos: Ligar la teoría al comportamiento observado. con pruebas de laboratorio o de campo. 0 Y 0.35 40.12 Es fácil mostrar que los tres juegos tienen similares equilibrios .20 X 45.0 Y 0. 45 40. 255 . Pero la teoría de juegos evolutivos sí permite distinguir entre ellos.Así. muchos modelos basados en la racio-nalidad pura no distinguirían entre estos tres juegos. La biología evolutiva es su modelo epistemológico.Economía Neoclásica Economía § Incentivos Visión de la Economía como un organismo darwiniano. Economía Evolutiva Complejidad 256 . MODELOS DE COMPLEJIDAD 257 . ROSSER Y COLANDER (2010)) 258 .³LA ERA DE LA ECONOMÍA NEOCLÁSICA HA FINALIZADO Y HA SIDO REEMPLAZADA POR LA VISIÓN DE UNA ECONOMÍA COMPLEJA.´ (HOLT.
Copyright © 2024 DOKUMEN.SITE Inc.