• El dinero es un gas

    En esta escena que mencioné ayer en clase de la película El lobo de Wall Street, dirigida por Martin Scorsese, Matthew McConaughey habla la “fugacidad” de la bolsa de valores. Llamativamente, la lírica de la canción “Money“, de Pink Floyd (del disco The Dark Side of the Moon, tiene la memorable frase “Money, it’s a gas“. Y ninguna de estas frases es simplemente una licencia poética. En muchos sentidos hay conexiones profundas entre la mecánica estadística y el modelado de los mercados bursátiles, que en algunos casos se remontan hasta los inicios de la teoría.

    Los que tengan curiosidad sobre cómo se usan herramientas de mecánica estadística para el estudio de economía y finanzas pueden mirar este muy buen review:

    que fue publicado en Reviews of Modern Physics en 2009. El artículo es introductorio y explica varios de los conceptos que se usan comúnmente en el área de econofísica, incluyendo modelos estocásticos (como los modelos de camino al azar que vimos en clase), cómo se usan el ensamble canónico y el gran canónico, los vínculos asociados a la “conservación del dinero”, o los vínculos que se usan en sistemas más realistas en los que pueden existir deudas y cómo esto resulta en diferentes equilibrios estadísticos. En particular, la Sección I, y la Sección II desde la subsección A hasta la C, se leen fácilmente y usan muchos de los conceptos que introdujimos hasta ahora en la materia.

    En las secciones II.B y II.C, los autores reemplazan el vínculo sobre la energía que usamos al derivar los ensambles, por un vínculo sobre el dinero total circulante. Si asumimos que el dinero total se conserva, la distribución de probabilidad de equilibrio para el dinero está dada por la distribución de Boltzmann-Gibbs,

    donde m es la cantidad de dinero, y Tm es la “temperatura estadística” del sistema (es decir, el multiplicador de Lagrange asociado al vínculo). Esta cantidad (Tm) es igual al dinero medio disponible por persona. Noten que esta expresión para la probabilidad es formalmente igual a la obtenida en el ensamble canónico. Excepto por casos con ingresos extremadamente grandes (que deben ser modelados con otra distrubución de probabilidad, la distribución de Pareto), la distribución de Boltzmann-Gibbs está en buen acuerdo con los datos de muchos países. A modo de ejemplo, el review compara este resultado con la probabilidad acumulada en función de los ingresos de los individuos usando datos de la oficina de impuestos de los Estados Unidos:

    En esta figura los puntos azules son datos (porcentaje acumulado de casos en función de los ingresos brutos ajustados de cada contribuyente), y la linea negra de la izquierda corresponde a la distribución de Boltzmann-Gibbs (o la distribución canónica), seguida por la distribución de probabilidad de Pareto.

    Este artículo tiene también un hallazgo interesante sobre la visión amplia que tenía Boltzmann de la física, que más de 100 años atrás vislumbró la aplicabilidad de la mecánica estadística tanto en física como en otras áreas muy diversas del conocimiento (una visión que se cumplió con creces). En 1905 Boltzmann, hablando sobre la generalización y formalización de la mecánica estadística realizada por Gibbs, escribió:

    “Esto abre una perspectiva amplia, si no pensamos solamente en objetos mecánicos. Consideremos aplicar este método a la estadística de seres vivos, de la sociedad, en sociología, etc.”

    Boltzmann tomó algunas ideas de estadística que ya se aplicaban en su época en el estudio de la sociedad para construir su teoría de los gases diluidos. Así que su propuesta de aplicar la incipiente mecánica estadística en estudios de la sociedad y en sociología podría resultar esperable. La famosa novela de ciencia ficción “Fundación“, de Isaac Asimov, también juega con la idea de aplicar la teoría de gases diluidos en las ciencias sociales para predecir el posible desarrollo de una sociedad. Y las aplicaciones actuales de la mecánica estadística en biología, economía y otras ciencias pueden resultar aún más sorprendentes que lo que imaginaron Boltzmann o Asimov.

  • Orbis Tertius

    La Guía 3 se puede bajar [aquí]. Es La Guía del primer parcial. Abandonen todo lo que estaban haciendo y empiecen a resolver los problemas de esta guía. ¿Qué es un problema por día? Nada. ¿Qué son dos problemas por día? Menos que nada. Un diferencial hoy, un diferencial mañana, cuando se quieren acordar, ya calcularon una integral. Algunos problemas tienen detalles técnicos que recién vamos a ver la semana que viene. Pero con lo que ya vieron en la teórica pueden hacer los problemas del 8 al 11 y con lo que vamos a ver hoy en la práctica, pueden hacer los problemas 1, 2, 7 y 22.

  • Apuntes sobre algunos problemas de la guía 2

    Hola! Acá y acá van a encontrar unos apuntes que armamos sobre algunas cosas de la guía 2 que discutimos en la práctica estas últimas dos clases, y también sobre algunas otras para las que no nos dio el tiempo.

  • La física de Feynman y Shrek

    Como mencioné varias veces en el aula, en esta materia no vamos a demostrar ni a derivar la termodinámica. Esta materia es, en cierto sentido, una materia sobre jerarquías en la naturaleza. No siempre podemos derivar un comportamiento complejo como resultado directo de leyes fundamentales. Muchas, muchísimas veces, al trabajar con sistemas complejos o extensos, necesitamos hacer aproximaciones e introducir conceptos que (aunque tienen vínculos con las leyes fundamentales de la naturaleza) tienen sentido solo en forma aproximada (¡como el calor!). Justamente en este video Feynman dice (en el minuto 0:22): “For example, at one end we have the fundamental laws of physics. Then we invent other terms for concepts which are approximate, which have, we believe, their ultimate explanation in terms of the fundamental laws. For instance, ‘heat’. Heat is supposed to be the jiggling, and the word for a hot thing is just the word for a mass of atoms which are jiggling.” (“Por ejemplo, en un extremo tenemos las leyes fundamentales de la física. Luego inventamos otros términos para conceptos que son aproximados, que, creemos, tienen su explicación última en términos de las leyes fundamentales. Por ejemplo, el “calor”. Se supone que el calor es la vibración, y la palabra para algo caliente es solo la palabra que usamos para una masa de átomos que se sacuden.”).

    Noten que Feynman no intenta convencernos de que hay una expresión formal y correcta para el calor en términos de leyes o magnitudes físicas fundamentales. Nos dice que el calor es un concepto aproximado para describir ciertos fenómenos en una escala macroscópica. Muchos conceptos en termodinámica son de este tipo: algunos podremos formalizarlos, para otros necesitaremos muchas aproximaciones. Y la descripción microscópica que estamos construyendo será compatible (por diseño y construcción) con la termodinámica, porque si la violase construiríamos otra teoría microscópica. El enfoque de esta materia nos puede ayudar a entender ciertos sistemas físicos de otra forma, pero no se confundan y piensen que porque una teoría se deriva con más cuentas y trabajo es necesariamente mejor. Porque es imposible unir las dos descripciones (la macroscópica y la microscópica) sin hacer muchas aproximaciones en el medio.

    Sobre este punto, en el video Feynman dice algo muy interesante, y que va contra la concepción simplista de la física que imagina que entender un fenómeno se reduce siempre a reducirlo a las leyes o principios fundamentales que están detrás. En el video Feynman continúa hablando de sistemas cada vez mas complejos, y aproximaciones cada vez mayores. Y en el minuto 2:52 se pregunta: “Which end is nearer to the ultimate creator, if I may use a religious metaphor? Which end is nearer to God? Beauty and hope, or the fundamental laws? I think that the right way, of course, is to say that the whole structural interconnection of the thing is what we have to look at. […] And so I do not think either end is nearer to God. To stand at either end, and to walk off that end of the pier only, hoping that out in that direction is the complete understanding, is a mistake.” (“¿Qué extremo está más cerca del creador final, si puedo usar una metáfora religiosa? ¿Qué extremo está más cerca de Dios? ¿La belleza y la esperanza, o las leyes fundamentales? Creo que la respuesta correcta, por supuesto, es decir que lo que debemos mirar es la interconexión completa de las cosas. […] Y entonces no creo que ninguno de los dos extremos esté más cerca de Dios. Pararse en cualquier extremo y caminar solo por ese extremo del muelle, esperando que partiendo desde ese punto encontraremos el entendimiento completo, es un error.”).

    En términos más contemporáneos, los sistemas físicos extensos son como los ogros. Y los ogros son como las cebollas. ¿Apestan? ¡No! ¿Te hacen llorar? ¡No! ¿Si los dejás al sol se vuelven marrones y les crecen pelitos blancos? ¡Tampoco! Las cebollas tienen capas. Los ogros tiene capas. Y los sistemas físicos extensos tienen capas, como los ogros y las cebollas.

    Y como los ogros, los sistemas físicos extensos no pueden comprenderse si solo miramos las capas más externas, o si solo miramos las capas centrales.

    Para los que quieran aprender más sobre la visión de Feynman sobre cómo se construyen las leyes físicas, el video que está arriba es un extracto de una serie de siete seminarios que Feynman dio en Cornell, con el título “The character of physical law“. Pueden encontrar los videos de sus seminarios online, y también fueron transcriptos a un libro.

  • Clase práctica del lunes 7/4

    Jorge publicó en el [Campus] sus apuntes de la clase pasada. Lo avisamos por aquí por si alguien todavía no se matriculó en nuestra aula virtual. Aprovechen para hacer sus consultas también ahí.

  • Hay clase mañana Miércoles 09/04

    Buenas! Simplemente para confirmar que mañana habrá clases, tanto teórica como práctica, todo en el horario normal.

    Ya que estamos, les planteo el siguiente problema de los 100 prisioneros, relacionado con lo que vamos a estar discutiendo en la práctica.

    Hay 100 prisioneros, numerados del 1 al 100. En una habitación separada hay 100 cajas, también numeradas del 1 al 100. Dentro de cada caja hay una hoja con un número del 1 al 100, y cada número aparece exactamente una vez (sin repeticiones).

    Cada prisionero, uno por uno, entra solo en la habitación y puede abrir hasta 50 cajas para buscar el papel con su propio número. Si lo encuentra, se considera que ha tenido éxito. Después de su turno, se vuelve a cerrar todo como estaba antes de ingresar (y luego es el turno del prisionero siguiente).

    Para que todos sean liberados, los 100 prisioneros deben encontrar su propio número en sus respectivos turnos.
    Si alguno falla, todos pierden.

    Los prisioneros no pueden comunicarse entre sí una vez que comienza el proceso, pero pueden planear una estrategia juntos antes de que todo comience.

    ¿Cuál es la probabilidad de que los prisioneros logren ser liberados si buscan su número abriendo cajas al azar? El resultado probablemente no sea muy alentador…
    ¿Se les ocurre una mejor estrategia?

  • La entropía de Shannon

    “Este pensador observó que todos los libros, por diversos que sean, constan de elementos iguales: el espacio, el punto, la coma, las veintidós letras del alfabeto. También alegó un hecho que todos los viajeros han confirmado: No hay en la vasta Biblioteca, dos libros idénticos. De esas premisas incontrovertibles dedujo que la Biblioteca es total y que sus anaqueles registran todas las posibles combinaciones de los veintitantos símbolos ortográficos (número, aunque vastísimo, no infinito) o sea todo lo que es dable expresar: en todos los idiomas. Todo: la historia minuciosa del porvenir, las autobiografías de los arcángeles, el catálogo fiel de la Biblioteca, miles y miles de catálogos falsos, la demostración de la falacia de esos catálogos, la demostración de la falacia del catálogo verdadero, el evangelio gnóstico de Basilides, el comentario de ese evangelio, el comentario del comentario de ese evangelio, la relación verídica de tu muerte, la versión de cada libro a todas las lenguas, las interpolaciones de cada libro en todos los libros, el tratado que Beda pudo escribir (y no escribió) sobre la mitología de los sajones, los libros perdidos de Tácito.”

    Jorge Luis Borges, La Biblioteca de Babel (1941).

    ¿De cuántas formas pueden reordenarse los veintitantos símbolos ortográficos de la Biblioteca de Babel? ¿De cuántas formas puede Christopher Nolan reordenar el argumento de sus películas para hacer una película nueva? ¿Y cuanta información quedará en la película más arrevesada que Christopher Nolan pueda dirigir? Como suele ocurrir, los Simpsons se preguntaron todo esto antes (¡pero no antes que Borges o que Claude Shannon!):

    ¿Cuál es la relación entre entropía e información? En 1949, ocho años después que Borges publicase La Biblioteca de Babel, Claude Shannon publicó un trabajo en el que introdujo su famoso concepto de entropía de la información,

    S = – Σ pi log pi.

    En ese trabajo, aunque presentó una serie de teoremas con motivaciones plausibles, Shannon acepta que su principal motivación para usar una definición de este tipo, y en particular la función logaritmo, tiene que ver con que es práctica para lidiar con magnitudes medidas que pueden variar en varios órdenes de magnitud, con que vuelve ciertas operaciones con números grandes más fáciles de manejar, y con resultados previos en mecánica estadística como las definiciones de entropía de Boltzmann y de Gibbs.

    En clase vimos cómo esta definición se relaciona con nociones de desorden o de interteza, y que para sucesos equiprobables se reduce a S = log(N), donde N es el número de sucesos posibles. Pero ¿cómo se relaciona esto con la noción de información?

    Llamativamente, Borges se adelantó en su Biblioteca de Babel a esta pregunta. En otra parte del cuento escribe:

    “El número de símbolos ortográficos es veinticinco. Esa comprobación permitió, hace trescientos años, formular una teoría general de la Biblioteca y resolver satisfactoriamente el problema que ninguna conjetura había descifrado: la naturaleza informe y caótica de casi todos los libros. Uno, que mi padre vio en un hexágono del circuito quince noventa y cuatro, constaba de las letras MCV perversamente repetidas desde el renglón primero hasta el último. Otro (muy consultado en esta zona) es un mero laberinto de letras, pero la página penúltima dice «Oh tiempo tus pirámides».”

    Imaginemos, como Borges, un conjunto de símbolos ortográficos formado por 22 letras del alfabeto, mas el punto, la coma y el espacio (que marcaremos como “_”):

    ABCDEFGHIKLMNOPQRSTVYZ.,_

    Pensemos ahora que tenemos diferentes “emisores” que transmiten un mensaje usando estos símbolos. Como en el video de Los Simpsons (en un tema que está íntimamente relacionado con el cuento de Borges y el concepto de entropía de Shannon), pensemos que tenemos monos encadenados a máquinas de escribir, y que pueden escribir al azar textos de 50 símbolos en cada mensaje:

    1. El primer mono (M1) aprieta la letra A todas las veces: “AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA”.
    2. El segundo mono (M2) aprieta solo letras con equiprobabilidad, sin usar puntuación o espacios: “AYZTMOICPQERVILVVLMODNBEKSDEHGAHGALMKEYC”
    3. El tercer mono (M3) aprieta cualquiera de las 25 teclas con equiprobabilidad: “DH, EKHVOZ . EZVIASC B PIM,YICAK DELA.ALSFBZOQNY E”.
    4. El cuarto mono (M4) aprieta cualquier tecla con su probabilidad de uso en el español (por ejemplo, el espacio tiene una probabilidad de ocurrencia de ≈ 0.17, la letra “A” de ≈ 0.10, la “E” de ≈ 0.11, etc.): “EOS RILND . QNL PAE A ARDTEOS DCMAEE AMA”.
    5. El quinto mono (M5) tiene un vocabulario de 10 palabras, y usa las reglas de espaciado y puntuación del español. Su vocabulario es: CASA, PEPE, TUS, PESCA, EN, PIRAMIDES, DOS, OH, PARA y TIEMPO. Usando solo esas palabras al azar, y el punto, la coma y el espacio, escribe: “DOS PESCA. TUS CASA PEPE, OH TIEMPO TUS PIRAMIDES.”

    ¿Cuánta información hay en cada mensaje? Para contestar esto, preguntémonos para qué emisor es más difícil predecir la ocurrencia de la siguiente letra, si nos llegasen sus mensajes de a una letra por vez (por ejemplo, por un telégrafo). En el primer caso, una vez que reconocimos el patrón, es fácil saber que la siguiente letra será una A. Cada nueva A no agrega entonces más información que la que ya teníamos (¡ya sabíamos que nos llegaría una A!). Es fácil también ver que el caso más difícil para predecir la ocurrencia de una nueva letra corresponde al del mono M3. Por otro lado, el mensaje de M5 parece más complicado, pero luego de recibir las letras “PES”, sabemos que solo pueden estar seguidas por “CA”. La entropía de Shannon mide esta noción de información, basada en la idea de que cuanto más difícil sea predecir la siguiente letra, más información nos aporta conocerla. Calculemos la entropía de cada emisor:

    1. S1 = ln 1 = 0
    2. S2 = ln 22 ≈ 3.091
    3. S3 = ln 25 ≈ 3.219
    4. S4 = -Σ pi log pi ≈ 2.766
    5. La entropía S5 es más difícil de calcular, pero es menor a S4 y mayor a S1.

    Hay otra forma interesante de pensar cuánta información genera el emisor, y es pensar cuánto podemos comprimir el mensaje que nos envía el emisor sin perder información. Para el primer mono nos alcanza con decir que envió 50 “A”. El mensaje de M5 lo podemos comprimir como “D PES. TU C PEP, O TI TU PIR.” (ya que “D” solo puede ser seguido por “OS”, “PES” por “CA”, “TU” por “S”, etc.). En el mensaje de M3 no podemos sacar nada sin perder información. Un teorema famoso de Shannon nos dice que (para mensajes muy largos) la cota máxima a cuánto podemos comprimir el mensaje de un emisor sin perder información está relacionada con su entropía.

    Los que quieran saber más pueden leer el paper original de Shannon:

  • Guía 2

    [Aquí] pueden bajar la Guía 2, acerca de combinatoria y probabilidades. En la bibliografía del Campus pueden encontrar muchos libros sobre estos temas. Un clásico son los dos tomos de Feller. La Wikipedia tiene una página con una clasificación de los problemas más usuales de combinatoria. Un poco al modo budista, la clasificación se llama The Twelvefold way.

    De la semana pasada: [aquí] pueden bajar el problema que se resolvió en clase, acerca de la definición del gas ideal clásico.

  • La clase de ayer, novelizada

    [Aquí] pueden bajar la versión novelizada por Michael Crichton de la clase práctica de ayer.

    Faltan casi dos semanas para la próxima clase práctica. Recuerden que pueden hacer consultas en el Campus. No dejen pasar el tiempo. Si se traban en algún problema, consulten, porque después es peor.

  • Lunes 17/3

    Muy probablemente, ya estén enterados de que este lunes y martes habrá paro de docentes y no docentes. De modo que nos veremos recién el miércoles a las 5 en el aula 3 aula 9, con una doble clase de práctica. Ya pueden bajar la Guía 1. Las prácticas empiezan con un repaso de cosas que no han visto nunca. Aprovechen estos días para leer el primer capítulo del libro de Callen y el capítulo 9 del libro de Swendsen. Con un poco de voluntad, pueden encontrar estos libros sin necesidad de ir a la biblioteca. Matricúlense en el aula virtual del Campus y suscríbanse a esta página.

WordPress Appliance - Powered by TurnKey Linux