1 00:00:00,000 --> 00:00:05,561 Hola, bienvenidos de vuelta. En esta clase, quiero hablar un poco sobre cómo utilizar 2 00:00:05,561 --> 00:00:09,374 modelos que puedan ayudarte a ser un ciudadano del mundo más inteligente. Así que 3 00:00:09,374 --> 00:00:13,417 voy a desglosar esto en un montón de subrazones acerca de por qué los modelos 4 00:00:13,417 --> 00:00:17,352 te hacen más capaz de enfrentarte a las cosas que suceden en este mundo 5 00:00:17,352 --> 00:00:20,903 moderno y complejo donde vivimos. Bien. Cuando pensamos sobre modelos, son 6 00:00:20,903 --> 00:00:24,550 simplificaciones. Son abstracciones. En un sentido ... hay un sentido en el cual 7 00:00:24,550 --> 00:00:28,389 son erróneos. Hay una famosa frase de George Box donde dice, "Todos los modelos son 8 00:00:28,389 --> 00:00:32,084 erróneos." Y eso es cierto, verdad? Lo son. "Pero algunos son útiles." Y eso será 9 00:00:32,084 --> 00:00:35,539 el mantra que estará vigente durante este curso. Estos modelos serán 10 00:00:35,539 --> 00:00:38,946 abstracciones, serán simplificaciones. pero serán útiles para nosotros. 11 00:00:38,946 --> 00:00:42,468 Nos ayudarán a hacer mejor las cosas. En cierto sentido, 12 00:00:42,468 --> 00:00:46,158 y esto será algo importante en este curso, los modelos. Los modelos son la nueva lengua franca. 13 00:00:46,158 --> 00:00:49,618 Son la lengua no sólo académica, sabes, de la que hablé 14 00:00:49,618 --> 00:00:53,447 en la clase pasada, además son la lengua de los negocios. Son la lengua 15 00:00:53,447 --> 00:00:57,046 de la política. Son la lengua del mundo no lucrativo. A donde quiera que vayas, 16 00:00:57,046 --> 00:01:00,782 donde haya personas tratando de hacer el bien, hacer dinero, curar enfermedades, lo que sea 17 00:01:00,782 --> 00:01:04,335 que quieran hacer, ¿cierto? Vas a ver que usan modelos que les permiten 18 00:01:04,335 --> 00:01:08,071 ser mejores en sus objetivos. Es por eso que ya se ha convertido 19 00:01:08,071 --> 00:01:11,716 en la nueva lengua franca. Así que, si retrocedemos, (recuerden que hablé de esto 20 00:01:11,716 --> 00:01:15,453 en la primera clase). La idea de un gran movimiento de los libros era eso. Era 21 00:01:15,453 --> 00:01:19,639 tener esta... serie de ideas que toda persona debería saber. Así que 22 00:01:19,639 --> 00:01:23,497 en los cientos de libros había miles de ideas. Y uno de nuestros estudiantes, Robert Hutchins 23 00:01:23,497 --> 00:01:27,354 Presidente de la Universidad de Chicago. Tenían esta cosa, que escribieron, llamado el 24 00:01:27,354 --> 00:01:31,264 Synopticon, que era una lista, ¿correcto?, tal como la recopilaron. Este fue el tipo de lista de 25 00:01:31,264 --> 00:01:35,430 los tipos de ideas que alguien debe saber, que una persona inteligente debe 26 00:01:35,430 --> 00:01:39,442 saber. ¿Cuáles son esas ideas? Una de esas ideas era atarse uno mismo al 27 00:01:39,442 --> 00:01:43,506 mástil. Y esto viene de la Odisea, ya sabes, eso de que el barco va pasando por 28 00:01:43,506 --> 00:01:47,672 las sirenas y quiere escuchar la hermosa canción de amor de las sirenas. Así que lo que hace es que 29 00:01:47,672 --> 00:01:51,873 su tripulación le ate al mástil. Se ata. Se ata a sí mismo al mástil, de forma que puede escucharlas 30 00:01:51,873 --> 00:01:56,109 pero para que las sirenas no atraigan al barco, a la vez 31 00:01:56,109 --> 00:01:59,784 pone cera en los oídos de su tripulación para que tampoco se sientan atraidos, ya sabes, 32 00:01:59,784 --> 00:02:04,071 para sacar el barco de ahí. Bueno esto es una idea que se repite en la historia 33 00:02:04,071 --> 00:02:08,182 cuando pensamos en ella. Cortez quema sus naves, ¿correcto?, para que sus hombres no 34 00:02:08,182 --> 00:02:12,541 retrocedan y continuaran avanzando. Así que esta idea de atarte a ti mismo al mástil 35 00:02:12,541 --> 00:02:16,253 es una cosa que realmente vale la pena. Pero aquí está el problema. Uno de uno de mis 36 00:02:16,253 --> 00:02:19,957 webs favoritas es un sitio web llamado Oficina de Proverbios. En estos websites 37 00:02:19,957 --> 00:02:23,949 se dicen cosas como "quien duda está perdido", "una puntada a tiempo ahorra nueve", o 38 00:02:23,949 --> 00:02:27,700 "dos cabezas son mejor que una", "demasiados cocineros estropean el caldo". Así que tienes que 39 00:02:27,700 --> 00:02:31,591 escuchar estos consejos realmente buenos, que probablemente se daban en el Synoption, 40 00:02:31,596 --> 00:02:35,148 pero luego tienes algo que dice exactamente lo contrario. Bien, ¿cómo 41 00:02:35,148 --> 00:02:39,340 dirimir entre esas dos cosas? La forma en la que dirimimos entre esas dos cosas 42 00:02:39,340 --> 00:02:43,532 es mediante la construcción de modelos, porque los modelos nos dan las condiciones en las que él que 43 00:02:43,532 --> 00:02:47,522 duda está perdido, y luego hay condiciones bajo las cuales una puntada a tiempo 44 00:02:47,522 --> 00:02:51,613 ahorra nueve. Así que cuando hablemos de la gran diversidad y predicción, veremos cuándo 45 00:02:51,613 --> 00:02:55,654 dos cabezas son mejor que una, y veremos cuándo 46 00:02:55,654 --> 00:02:59,694 demasiados cocineros estropean el caldo. Así que, irónicamente, lo que hacen los modelos es atarnos 47 00:02:59,694 --> 00:03:03,684 a un mástil, nos atan a un mástil de lógica y atándonos a un mástil de la lógica, 48 00:03:03,684 --> 00:03:08,652 deducimos qué formas de pensar, qué ideas son útiles para nosotros.'OK? Así que, si 49 00:03:08,652 --> 00:03:13,116 miras casi cualquier disciplina, ya sea economía, lo que ves en 50 00:03:13,116 --> 00:03:17,634 este diagrama, ves una descripción del tipo de.., esto es, una función de utilidad para 51 00:03:17,634 --> 00:03:21,878 un agente. Y lo que hace el agente es tratar de maximizar su salario, correcto? 52 00:03:21,878 --> 00:03:25,900 Así, los economistas utilizan modelos todo el tiempo. Los biólogos utilizan modelos de igual forma. Ellos, 53 00:03:25,900 --> 00:03:30,143 ellos, sabes, tienen modelos del cerebro, donde tienen pequeños axones 54 00:03:30,143 --> 00:03:34,331 y dendritas entre las neuronas. Tienen modelos de redes de genes reguladores 55 00:03:34,331 --> 00:03:38,464 Tienen especies modelizadas, correcto? Cosas así. En sociología, tenemos 56 00:03:38,464 --> 00:03:42,611 modelos, así, correcto? Hay una especie de modelos de cómo la identidad afecta 57 00:03:42,611 --> 00:03:46,411 a tus acciones y tus comportamientos y cosas así. Bien, en ciencias políticas 58 00:03:46,411 --> 00:03:50,186 disponemos de modelos. Las ciencias políticas en estos días, esta es una foto de un modelo espacial de votación. 59 00:03:50,186 --> 00:03:53,934 Digamos que los candidatos son un poco más conservadores en ciertas 60 00:03:53,934 --> 00:03:57,280 dimensiones y los votantes son un poco más conservadores y dices que, bueno, 61 00:03:57,280 --> 00:04:00,983 es más probable votar por un candidato con posiciones similares a uno mismo. 62 00:04:00,983 --> 00:04:04,508 En mi trabajo en la Universidad de Michigan tenemos algo llamado 63 00:04:04,508 --> 00:04:08,032 Estudios de Elecciones Nacionales que se usan a partir de la recopilación de este tipo de datos 64 00:04:08,032 --> 00:04:11,423 acerca de dónde están los políticos y donde los votantes, y que nos permite dar 65 00:04:11,423 --> 00:04:15,184 sentido de quién vota a quien y por qué. ¿Vale? Así que los modelos nos ayudan a comprender las decisiones 66 00:04:15,184 --> 00:04:18,550 que toma la gente. ¿Lingüística, correcto? Esta es otro área, ¿verdad? Podemos pensar, 67 00:04:18,550 --> 00:04:21,871 ¿Cómo pueden utilizarse modelos en lingüística? Pues bien, este pequeño modelo de aquí, ves 68 00:04:21,871 --> 00:04:25,685 cosas donde hay v's y n y p's aquí, si te acercas. Bien, 69 00:04:25,685 --> 00:04:29,006 v significa verbo, n significa sustantivo, y así. Y s significa significa, ya sabes, 70 00:04:29,006 --> 00:04:32,238 sujeto, digamos, ¿correcto? Puedes hacer esto: puedes preguntar "¿Qué es la 71 00:04:32,238 --> 00:04:35,693 estructura de una lengua?" Puedes preguntarlo, formalmente y matemáticamente, cuáles es la 72 00:04:35,693 --> 00:04:39,014 estructura de un idioma, y así lenguas son más parecidas a otras 73 00:04:39,014 --> 00:04:42,560 lenguas o no, dependiendo de cómo la gente, sabes, estructura sus frases. Así el 74 00:04:42,560 --> 00:04:46,001 Alemán, donde se ponen todos los adjetivos al final de la oración 75 00:04:46,001 --> 00:04:50,132 se ve muy diferente de por ejemplo el inglés. Muy bien. Incluso la ley. Esto es 76 00:04:50,132 --> 00:04:54,138 un gráfico de uno de mis estudiantes graduados, ex estudiante de posgrado. Ahora, es un 77 00:04:54,138 --> 00:04:58,194 profesor de derecho, Dan Katz. Es una especie de modelo de red del Tribunal Supremo 78 00:04:58,194 --> 00:05:02,149 de Justicia, ustedes saben, lo que indica es quién, si alguien nombra juez a 79 00:05:02,149 --> 00:05:06,055 otro juez. Poniendo los datos que están ahí en este tipo de modelo basado en 80 00:05:06,055 --> 00:05:09,711 formas, podemos empezar a comprender cómo de conservadores y liberales 81 00:05:09,711 --> 00:05:13,817 son los jueces. ¿Muy bien? Por lo tanto, hay muchas maneras de usar modelos y hay incluso toda una 82 00:05:13,817 --> 00:05:17,622 disciplina ahora que ha evolucionado, que se basa completamente en modelos. Así, teoría de juegos, 83 00:05:17,622 --> 00:05:21,628 que es en lo que realmente estaba entrenado como estudiante graduado, es todo acerca de 84 00:05:21,628 --> 00:05:25,507 comportamiento estratégico. Comportamiento. Es el estudio de interacciones estratégicas, 85 00:05:25,507 --> 00:05:29,525 sabes, individuos, empresas y Naciones. ¿Verdad? Y también se puede aplicar la teoría de juegos 86 00:05:29,525 --> 00:05:33,494 a Biología, correcto? Así que hay todo tipo de cosas, correcto? Cuando vaya a, cuando vayas 87 00:05:33,494 --> 00:05:37,215 a, ya sabes, a la Universidad, en la Universidad, verás que hay modelos de teoría de juegos 88 00:05:37,215 --> 00:05:41,233 de casi cualquier cosa. ¿Verdad? Así que hay un campo basado completamente solo 89 00:05:41,233 --> 00:05:45,631 en los modelos. ¿Verdad? Por qué, bien [risa] ¿Por qué todos estos modelos, correcto? ¿Por qué 90 00:05:45,631 --> 00:05:50,508 todo, desde la lingüística, a la economía, sabes, ciencia política utiliza 91 00:05:50,508 --> 00:05:55,450 modelos? ¿Bueno, porque son mejores, correcto? Son simplemente mejores que nosotros. Por lo tanto, déjame 92 00:05:55,450 --> 00:06:00,392 mostrarte un gráfico, aquí. Este es un gráfico de un libro de Phil Tetlock. Es un 93 00:06:00,392 --> 00:06:05,919 libro fabuloso. Y en este gráfico, lo que está mostrando es, está mostrando la exactitud 94 00:06:05,919 --> 00:06:10,065 de diferentes..., deja que coja un lápiz. Diferentes maneras de predecir. 95 00:06:10,065 --> 00:06:13,512 Lo que ve en este eje, este eje de coordenadas de aquí. Aquí está 96 00:06:13,512 --> 00:06:17,217 preguntando en cierto modo cómo..., mostrando cómo de preciso es un modelo. Y este eje está 97 00:06:17,217 --> 00:06:21,487 diciendo cuán discriminativo es, en términos de cómo de particular, cómo de precisas son las predicciones 98 00:06:21,487 --> 00:06:25,705 que está haciendo. Así, en vez de decir hace calor o frío, podría estar diciendo que va a 99 00:06:25,705 --> 00:06:29,410 hacer 90 grados, u 80 grados o 70 grados. Así que este eje aquí, hacia arriba y 100 00:06:29,410 --> 00:06:32,908 hacia abajo del eje, es "discriminacionaliidad", discriminación, y este eje es 101 00:06:32,908 --> 00:06:36,715 la precisión. Así, lo que ves aquí, aquí, son erizos. Son personas 102 00:06:36,715 --> 00:06:40,823 que utilizan un modelo único. Los erizos no son muy buenos prediciendo. ¿Verdad? Son 103 00:06:40,823 --> 00:06:45,295 malísimos prediciendo. Aquí están las personas que él llama zorros. Los zorros son personas que 104 00:06:45,295 --> 00:06:49,713 utilizan gran cantidad de modelos. Tienen una gran cantidad de modelos sueltos en su cabeza. Y son 105 00:06:49,713 --> 00:06:53,695 mucho mejor, sabes, en calibración, un poco mejor en 106 00:06:53,695 --> 00:06:58,058 discriminación, que los individuos. Pero aquí, [risa] mejores que nadie, están 107 00:06:58,058 --> 00:07:02,312 los modelos formales. Modelos formales son mejores que zorros o erizos. 108 00:07:02,312 --> 00:07:06,457 [inaudible] cuántos datos hay aquí? Tetlock realmente tenía decenas de miles de 109 00:07:06,457 --> 00:07:10,565 predicciones. Así, durante un período de 20 años, recogió las predicciones de la gente. Y 110 00:07:10,565 --> 00:07:15,154 comparó cómo lo hacía la gente con los modelos. Y la respuesta es: los modelos lo hacen mucho, mucho 111 00:07:15,154 --> 00:07:19,772 mejor. Ok, bien. ¿Qué pasa con las personas, entonces, quién realmente hace 112 00:07:19,772 --> 00:07:23,194 predicciones para vivir? Esta es una foto de Bruce Bueno de Mesquita, que 113 00:07:23,194 --> 00:07:26,616 hace predicciones sobre lo que va a suceder en las relaciones internacionales, y 114 00:07:26,616 --> 00:07:30,261 es muy bueno. Él es tan bueno que sacaron su foto en la portada de 115 00:07:30,261 --> 00:07:33,816 las revistas, verdad? Está en Stanford y en la Universidad de Nueva York. Presidente del Departamento en NYU. Suele 116 00:07:33,816 --> 00:07:37,372 ser, de todas formas.... Bruce utiliza modelos. Tiene un modelo muy elaborado que le ayuda a 117 00:07:37,372 --> 00:07:40,483 entender, basado en una especie de capacidad de negociación e interés, lo que 118 00:07:40,483 --> 00:07:43,594 diferentes países van a hacer. Pero, al igual que George Box dijo al 119 00:07:43,594 --> 00:07:47,016 principio, él no basa su decisión completamente en ese modelo. Lo que el modelo 120 00:07:47,016 --> 00:07:50,572 hace es orientarle acerca de lo que luego piensa. Mezcla lo que 121 00:07:50,572 --> 00:07:54,716 el modelo formal le dice y la experiencia le dice. La gente inteligente 122 00:07:54,716 --> 00:07:59,984 usa modelos pero los modelos no les dicen qué hacer. Esta bien. Otra razón por la que los modelos 123 00:07:59,984 --> 00:08:04,858 se usan... sí son mejores, pero también son muy fértiles.Una vez que 124 00:08:04,858 --> 00:08:08,621 aprendes un modelo. Ya sabes, para un dominio, se puede aplicar a un montón de 125 00:08:08,621 --> 00:08:11,913 otros dominios, es fascinante. Así que vamos a aprender que algo llamado 126 00:08:11,913 --> 00:08:15,657 Procesos de Marcov, que son modelos de procesos dinámicos. Por lo tanto pueden utilizarse para 127 00:08:15,657 --> 00:08:19,220 modelar cosas como la diseminación de la enfermedad y cosas así, verdad? Finalmente vamos a 128 00:08:19,220 --> 00:08:22,783 aprender que también pueden utilizarse, esto es sorprendente, para averiguar 129 00:08:22,783 --> 00:08:26,715 quien escribió un libro. [risa] Y dicen, ¿cómo es eso? Pues eso sucede 130 00:08:26,715 --> 00:08:30,433 porque puedes pensar en palabras, en escribir una frase, como un proceso dinámico. Por lo tanto 131 00:08:30,433 --> 00:08:34,402 diferentes autores,..., utilizan diferentes secuencias de palabras. Patrones diferentes. Por lo tanto 132 00:08:34,402 --> 00:08:38,521 podemos utilizar este modelo matemático que no fue desarrollado de ninguna manera 133 00:08:38,521 --> 00:08:42,290 para esto, para averiguar quién escribió qué libro, vale? Muy guay. Muy bien. 134 00:08:42,290 --> 00:08:46,543 Otra gran razón. Los modelos realmente nos humillan. La razón por la que nos humillan es 135 00:08:46,543 --> 00:08:50,744 que sólo tenemos que establecer la lógica y, a continuación, tenemos esta vaca sagrada, no tenía 136 00:08:50,744 --> 00:08:54,635 ni idea que esto iba a suceder, verdad A menudo cuando construimos el 137 00:08:54,635 --> 00:08:58,784 modelo, vamos a obtener predicciones muy diferentes de lo que pensábamos antes, 138 00:08:58,784 --> 00:09:02,934 Así que si miras las cosas, esto es una gráfica de, el gráfico del tulipán, verdad, de 139 00:09:03,090 --> 00:09:06,368 cuando hay una gran... en el sexto... siglo XVII, cuando hay un 140 00:09:06,368 --> 00:09:09,974 saben, este gran alza en los precios de tulipán. Puedes imaginar que la gente pensaba 141 00:09:09,974 --> 00:09:13,814 que los precios iban a seguir subiendo y subiendo. Bueno, si tuvieras un simple modelo lineal 142 00:09:13,814 --> 00:09:17,514 podrías haber invertido mucho en tulipanes y perder mucho dinero. Así, una 143 00:09:17,514 --> 00:09:21,167 razón por la que los modelos nos humillan, volviendo al código de George Box. Todos 144 00:09:21,167 --> 00:09:24,633 los modelos están equivocados, verdad? Por lo tanto, un modelo es erróneo. Pero los modelos son 145 00:09:24,633 --> 00:09:28,239 una cura de humildad para nosotros, porque en cierto modo nos muestran todas las dimensiones de un 146 00:09:28,239 --> 00:09:31,985 problema. Cuando probamos y escribimos un modelo de cualquier tipo de sistema, es 147 00:09:31,985 --> 00:09:35,685 un ejercicio muy humillante, porque nos damos cuenta de cuánto hemos dejado fuera y 148 00:09:35,685 --> 00:09:39,190 intentamos entender qué está pasando. Muy bien. Aquí hay otro ejemplo, ¿verdad? Este es el 149 00:09:39,190 --> 00:09:42,748 índice de precios de Case-Shiller Home, y lo que ves es, ves los precios subiendo y subiendo 150 00:09:42,748 --> 00:09:46,262 verdad? Y entonces ves esto, Déjame coger un lápiz, una caída estrepitosa 151 00:09:46,262 --> 00:09:49,557 aquí, verdad? Mucha gente tenía modelos que decián, mira, las cosas van 152 00:09:49,557 --> 00:09:53,247 a seguir de esta manera. Había unas pocas personas que tenían modelos que decían que las cosas 153 00:09:53,247 --> 00:09:56,761 bajaban. Estas personas, aquellos cuyos modelos bajaban, hicieron mucho dinero. Esta 154 00:09:56,761 --> 00:10:00,099 gente que pensaba que iba a subir, no. Por lo tanto, siempre vamos a ver un montón de 155 00:10:00,099 --> 00:10:03,614 diversidad en los modelos y realmente no vas a saber, a menudo hasta después del hecho, 156 00:10:03,614 --> 00:10:06,908 cuál es el correcto. Y así, una cosa realmente importante es 157 00:10:06,908 --> 00:10:10,159 tener muchos modelos. Por lo tanto, volvamos al gráfico de erizos y zorros que hemos 158 00:10:10,159 --> 00:10:14,220 enseñado antes. Los, los zorros, la gente con un montón de modelos, lo hicieron mucho 159 00:10:14,220 --> 00:10:19,127 mejor que los erizos, la gente sin modelos. Y los modelos formales lo hicieron mejor 160 00:10:19,127 --> 00:10:22,438 que los zorros. Bien, ¿quién podría hacerlo mejor que los modelos formales? Bueno, gente 161 00:10:22,438 --> 00:10:26,076 con un montón de modelos formales. ¿Verdad? Así que si realmente queremos dar sentido del mundo 162 00:10:26,076 --> 00:10:29,759 lo que queremos hacer es tener montones de modelos formales en nuestras disquisiciones. Así que lo que vamos 163 00:10:29,759 --> 00:10:33,397 a hacer en esta clase es casi como, ¿recuerdan las viejos, cajas de 16 o 32 164 00:10:33,397 --> 00:10:37,079 crayolas (pinturas)? Es lo que estamos haciendo aquí. ¿Verdad? Sólo vamos a recoger un 165 00:10:37,079 --> 00:10:40,627 montón de modelos. Y vamos a cogerlos, verdad, son fértiles. vamos 166 00:10:40,627 --> 00:10:44,265 elegir entre un montón de configuraciones. Cuando nos enfrentemos a algo 167 00:10:44,265 --> 00:10:47,947 lo que podemos hacer es coger de nuestros modelos... Preguntarnos cuáles son apropiados y al hacerlo 168 00:10:47,947 --> 00:10:51,772 así, verdad, ser mejores en lo que hagamos. Así que la esencia del libro de Tetlocks, verdad? 169 00:10:51,772 --> 00:10:55,959 De donde vieen ese gráfico con los zorros y erizos es que, las únicas personas que 170 00:10:55,959 --> 00:10:59,847 son realmente mejores que... él tenía una forma de clasificación aleatoria... 171 00:10:59,847 --> 00:11:03,834 Las únicas personas que son mejores que lo aleatorio al predecir lo que 172 00:11:03,834 --> 00:11:07,971 va a ocurrir son las personas que utilizan varios modelos. Y ese es el tipo de personas que 173 00:11:07,971 --> 00:11:12,325 queremos ser. Está bien, esa es la gran lógica del ciudadano inteligente del mundo 174 00:11:12,325 --> 00:11:16,556 verdad. Hay, modelos, son increíblemente fértiles, nos dan lecciones de humildad, 175 00:11:16,556 --> 00:11:21,088 nos ayudan, realmente aclaran la lógica, y son simplemente mejores. ¿Vale? Por lo tanto 176 00:11:21,088 --> 00:11:25,459 si quieres estar ahi, sabes, ayudando a cambiar el mundo de formas útiles 177 00:11:25,459 --> 00:11:30,251 es realmente, realmente útil tener alguna comprensión de modelos. 178 00:11:30,251 --> 00:11:30,912 Muchas gracias.