Dado que las últimas clases fueron un poco cargadas y no hubotanto tiempo de consultas, aviso que voy a estar en el IAFE en los siguientes horarios por si tienen preguntas de las guías:
Hoy martes de 14 a 17h
Mañana Miércoles de 14 a 17h.
El Jueves de 10 a 13h.
Voy a estar en la oficina de Sergio Iguri (1er piso al fondo). Pueden decir que vienen a hablar conmigo, pero si no los dejan pasar o no hay nadie en la puerta, mándenme un mail a
nico.koven@gmail.com
y bajo a abrirles. Igual la semana que viene hay una clase entera de consultas y este mismo Miércoles probablemente quede más tiempo.
[Aquí] pueden bajar la Guía 7, con problemas nunca antes vistos. Recuerden que, a partir de hoy, todas las clases (que no son muchas) serán de práctica, de 17 a 22. Quedan tres clases y hay otra guía, pero es más bien una continuación de la Guía 7. Hoy vamos a dedicar una parte de la clase a la práctica computacional. La clase que viene terminamos la Guía 7 y empezamos la 8.
La práctica está publicada en el post anterior. Creemos que ya todos los grupos están anotados. Si falta alguno, avisen. La fecha de la primera entrega es el viernes 11 de julio, entre el segundo parcial y el primer recuperatorio. Les enviaremos una versión comentada con las correcciones que deben hacer. Así, dos veces más, si fuera necesario. En el Campus están los detalles de cómo hacer la primera entrega.
Lo más importante es tener las simulaciones funcionando cuanto antes. Una vez que todo ande bien, las simulaciones llevan un rato, pero hay poco que hacer. Para ganar tiempo, cuando ya entren en la línea de producción, usen varias cuentas de Gmail, cada una con una copia del programa, y corran varias simulaciones a la vez. Las redes pequeñas se simulan en el orden del minuto. Las redes grandes pueden llevar un par de horas. Pero, si usan muchas cuentas, en ese par de horas pueden simular muchas redes. También pueden correr el notebook en sus propias computadoras, si instalan alguna distribución de Python. Más importantes consejos, [aquí].
Lean atentamente el enunciado de la práctica. Si se traban en algo, consulten por mail, compartiendo el notebook.
Los que tienen grupo para la práctica computacional y aún no se anotaron, anótense ya. Los que no tienen grupo, también anótense, en la columna de los Sin Grupo. Después los ponemos en contacto. Tenemos que ver si alcanza con hacer un sólo grupo extra.
El lunes vamos a dedicar algo de tiempo a explicar cómo funciona el algoritmo de Metropolis-Montecarlo. Con la explicación de la Wikipedia es suficiente para empezar, así que si quieren ir adelantando, [aquí] está el enunciado de la práctica. Guarden una copia en sus drives. [Aquí] hay algunos consejos prácticos para administrar mejor el tiempo de las simulaciones.
Mañana de 16 a 17 vamos a atender consultas antes de la clase teórica. Trataremos de que sea en el aula de clase, pero si no es posible, no nos alejaremos mucho. Recuerden que mañana la clase teórica es de 17 a 22, season finale. A partir de la semana que viene, ocuparemos todo el tiempo de clase para las prácticas.
Considerando la toma de Ciudad Universitaria, suspendemos la clase de hoy. Nos vemos la semana próxima. Revisen la página de todas formas en las próximas horas, solo por si hay alguna noticia de último momento.
Llegó el festival anual psicodélico de la criticalidad en la física y en áreas afines, cada año actualizado con papers más y más recientes. Tenemos entradas para ver ejemplos de fenómenos críticos en física de materiales, sistemas biológicos, fluidos, cosmología, y hasta en neurociencias. Pero comencemos con la banda número uno del lineup: Ising y su modelo.
En ausencia de campo magnético externo y cerca de la temperatura crítica (Tc), el modelo de Ising en dos dimensiones se vuelve auto-semejante. En otras palabras, a esa temperatura la presencia de islas de diferentes tamaños vuelve al sistema invariante de escala. Esto está muy bien ilustrado en el siguiente video, que muestra un estado del modelo de Ising con 1,7×1010 espines cerca de Tc. Al principio el video muestra lo que parecen ser cuatro realizaciones independientes del modelo de Ising, pero en realidad son partes más chicas de la simulación completa:
En clase vimos que este sistema tiene exponentes críticos en T cercana a Tc, y también que en esa temperatura la longitud de correlación diverge. ¡Espero que este video les aclare por qué!
En otro escenario tenemos, junto con Guns N’ Roses, a dos ejemplos de física de materiales y materia condensada. Ya conocemos las transiciones de fase asociadas a los cambios de estado de la materia (sólido, líquido y gaseoso). ¡Pero existen muchos más cambios de fase! Así que veamos el show de bandas menos conocidas (los links los llevan a ejemplos recientes de publicaciones). Primero tenemos a los cristales líquidos. Los cristales líquidos están formados por moleculas anisótropas (generalmente alargadas, por ejemplo, con forma de largos cilindros), que se comportan con propiedades intermedias entre los líquidos y los sólidos de acuerdo a en que dirección del material se aplican los esfuerzos. Y tienen al menos dos fases: en la fase nemática (a mayor temperatura) las moléculas están más desordenadas, pero se alinean a lo largo de sus ejes principales. En cambio, en la fase esméctica (a menor temperatura) las moléculas se acomodan en capas más ordenadas, y dentro de cada capa las moléculas están inclinadas con el mismo ángulo. El cambio entre ambas fases es una transición de fase con propiedades críticas. Los interesados pueden mirar un paper reciente (Gim, Beller & Yoon, Nat. Commun. 8, 15453, 2017), donde encontrarán esta figura alucinante con cambios morfológicos del material durante la transición (para temperatura creciente, de izquierda a derecha):
Los que quieran leer otro ejemplo de transiciones de fase en física de materiales pueden mirar este artículo sobre transiciones sólido-sólido que ocurren por cambios en la forma de partículas coloidales.
Vayamos a otro escenario del Criticalpalooza, y mientras escuchamos The Flaming Lips, veamos ejemplos recientes de transiciones de fase y autosemejanza observados en sistemas biológicos. Ciertas células cambian sus patrones de movimiento de acuerdo a la densidad de células en su entorno. A baja densidad muestran un movimiento desordenado, mientras que a alta densidad muestran patrones de movimiento colectivo y ordenado. La transición entre ambos comportamientos ocurre como una transición de fase. Pueden ver un ejemplo en Szabó et al., Phys. Rev. E 74, 061908 (2006) (el preprint está diponible en este link). La siguiente figura, de ese paper, muestra los patrones de movilidad al aumental la densidad de las células (de izquierda a derecha). Noten el cambio en el orden del sistema:
En el mismo escenario donde toca Metallica tenemos una variedad de fenómenos autosemejantes que se observan en fluidos. El más conocido es el fenómeno de la turbulencia. Los fluidos más viscosos (donde la viscosidad se mide con un número adimensional, el número de Reynolds) fluyen en forma ordenada y laminar. Pero al aumentar el número de Reynolds (y reducirse la importancia de la viscosidad), generan flujos muy desordenados que tienen propiedades de invariancia de escala. En la siguiente figura, noten como zooms sucesivos en el flujo parecen repetir los patrones (algo similar a lo que vimos en el modelo de Ising en 2D):
Esta es una transición extraña, porque los flujos turbulentos tienen propiedades de criticalidad y autosemejanza, pero son un sistema fuera del equilibrio. Pueden ver más imágenes de flujos turbulentos aquí. Y pueden ver un ejemplo de una transición de fase en turbulencia en un condensado de Bose-Einstein en este paper.
Los que tengan interés por cosmología pueden ir al escenario donde tocan Empire of the Sun y Lee Smolin, y leer este artículo donde se discuten diversos problemas (como la formación de galaxias espirales, la estructura de gran escala del universo, o el universo temprano) desde el punto de vista de fenómenos críticos. También en cosmología, algunas teorías predicen que una transición de fase podría haber ocurrido en el universo temprano, cuando se formaron los primeros átomos. Luego de ese momento el universo se volvió transparente, pero antes de ese instante el universo puede haber sido opalescente en forma crítica (como la mezcla de un líquido y un gas cuando llega a la temperatura crítica y dejan de existir las diferencias entre ambas fases, como se ve en la foto del centro en esta imágen de una mezcla de etano líquido y gaseoso tomada de Wikipedia):
Ya que estamos en el festival, no nos olvidemos de ir a ver las bandas clásicas. El mecanismo de Higgs por el cual los bosones de gauge adquieren masa, es también un mecanismo de ruptura espontánea de la simetría.
Para cerrar el festival, este Criticalpalooza no tendrá a The Strokes, pero tiene ejemplos de fenómenos críticos en el cerebro. Las funciones cognitivas involucran procesos que van desde las neuronas individuales hasta regiones grandes del cerebro, y en los últimos años se encontró evidencia creciente de que el cerebro funciona en el borde entre el orden y el desorden, con propiedades de fenómenos críticos. Los interesados en ver ejemplos de criticalidad y autosemejanza en el cerebro pueden mirar este paper o este paper. O, si quieren mirar dos papers más recientes, pueden ver este paper publicado en Science Advances o este paper escrito por varios investigadores del Departamento de Física. Ambos tienen gráficos que muestran cómo se calculan los exponentes críticos en este sistema. La siguiente imagen, tomada de Cochi et al., Progress in Neurobiology 158, 132 (2017) (el primero de los cuatro papers) es bastante sugerente:
[Aquí] pueden bajar lo que vimos ayer en la práctica. ¿Ya hicieron toda la Guía 5? ¿No tuvieron ninguna duda? ¿Nada para preguntar en el Campus? Mañana miércoles hay sólo clase teórica de 17 a 22. Nos vemos el lunes.
Ex Machina (disponible en Netflix) es una película de 2014 con algunos giros de tuerca inquietantes alrededor de la idea de construir máquinas con inteligencia artificial. Sorprendentemente, o no tanto, los temas de esta materia tienen una relación cercana con este problema. El premio Nobel de Física 2021 fue otorgado a Giorgio Parisi, Syukuro Manabe y Klaus Hasselmann por contribuciones fundamentales a la comprensión de los sistemas complejos. Y en particular, la mitad del premio Nobel fue para Giorgio Parisi, entre otras cosas, por sus aportes al estudio de los vidrios de spin. Los vidrios de spin son un modelo sencillo para sistemas magnéticos amorfos, un caso en cierto sentido más general que el de los modelos de Ising que estamos considerando en el curso. Más recientemente, el premio Nobel de Física 2024 fue para John Hopfield y Geoffrey Hinton, por descubrimientos fundamentales que permitieron el aprendizaje automático con redes neuronales. Hinton usó herramientas de mecánica estadística para inventar la máquina de Boltzmann, una red neuronal útil para clasificar y crear imágenes. Y Hopfield es un físico que trabajó en materia condensada y luego en neurociencias, y que creó una red neuronal que lleva su nombre.
Ustedes podrán preguntarse qué relación hay entre mecánica estadística, el modelo de Ising, vidrios de spin, e inteligencia artificial. Comencemos por un problema más sencillo (o tal vez mucho más difícil): el juego de Go. El Go es un juego de mesa, pariente del ajedrez, en el que dos jugadores ponen piedras blancas o negras en turnos, en cualquier lugar del tablero, en una cuadrícula de 19×19 puntos. El objetivo del juego es rodear la mayor cantidad de territorio posible con las piedras del color del jugador.
Las reglas son muy sencillas: (1) Una piedra sin libertades (es decir, completamente rodeada por piedras del color opuesto) es capturada y removida del tablero. (2) No se pueden hacer jugadas que recreen la situación previa del tablero. Y (3) cuando un jugador pasa su turno dos veces seguidas, el juego termina. A pesar de esta simpleza (o tal vez como resultado de la misma), es un juego muy complejo. El número de posiciones legales en el tablero es mayor a 10170 , muchísimo más grande que en el ajedrez, y más grande que el número de átomos en el universo. Como resultado, los métodos para hacer que computadoras jueguen al Go calculando todas las jugadas posibles (como se hace con el juego de ajedrez) son inviables. Así, el juego de Go resultaba un desafío más que interesante para la inteligencia artificial.
Hasta hace unos años, uno de los métodos preferidos para programar computadoras para jugar al Go era aplicar el método de Montecarlo (que usarán en la práctica computacional) para encontrar configuraciones del tablero que minimizan la energía (o el Hamiltoniano) de un modelo de Ising que tiene alguna relación con las reglas del juego de Go, y con las condiciones para ganar una partida. Por ejemplo, un posible Hamiltoniano es el siguiente, donde si es el color de las piedras en cada posición (+1 o -1 para blanco o negro), hi es el número de libertades de la piedra i-ésima (cuantos casilleros tiene libre alrededor), PV indica que la suma se hace sobre los primeros vecinos, y μ (>0) es una “energía” que premia las configuraciones en las que las piedras propias (+1) tienen libertades (es decir, no están rodeadas):
¡De pronto, el modelo de Ising encuentra aplicaciones muy lejos de la física de materiales magnéticos! Sin embargo, estos métodos resultan en programas de Go que juegan apenas tan bien como un jugador humano mediocre. Y cuando el problema de jugar bien al Go parecía inaccesible para las computadoras, Google presentó en 2016 una red neuronal profunda que le ganó a todos los grandes campeones humanos del juego.
Una red neuronal profunda es una red con muchas capas de neuronas artificiales: los datos ingresan (en la siguiente figura, por la izquierda), son multiplicados por coeficientes (llamados “pesos”) en cada conexión entre neuronas, y el resultado es procesado con alguna operación sencilla por cada neurona (que puede estar “activada”, o “inactivada”). El procedimiento se repite en cada capa de neuronas, hasta que se obtiene un resultado final (por dar un ejemplo muy crudo y simplificado, ingresa el estado actual del tablero de Go y obtenemos como resultado la próxima jugada que conviene realizar):
Las redes neuronales son entrenadas con muchísimas jugadas, de forma tal de ajustar los pesos en cada una de las conexiones de las neuronas y obtener un resultado óptimo. Pero noten que la estructura de la red no es muy diferente a la de los sistemas magnéticos que estuvimos estudiando en el curso: tenemos nodos que interactúan con sus vecinos con algún coeficiente de acoplamiento, y su equilibrio corresponde al mínimo de alguna función (el error en la respuesta que obtenemos). La diferencia es que ahora esos coeficientes (los pesos) no están fijos, y pueden cambiar durante el entrenamiento.
En física ocurre algo similar en materiales magnéticos amorfos. La estructura de la red de spines en esos materiales puede ser muy compleja, y los spines pueden interactuar con otros spines muy lejanos (en la peor situación posible, pueden interactuar todos contra todos). Y los spines pueden tener coeficientes de acoplamiento diferentes para cada par, que en la siguiente figura se indican en el Hamiltoniano como Jij para el acomplamiento del par ( i, j ). La variante de los modelos de Ising que se usa para estudiar este tipo de sistemas es conocida como vidrios de spin:
Los vidrios de spin son formalmente equivalentes a un tipo particular de redes neuronales (¡las redes de Hopfield!), pero además, muchos de los resultados que se obtuvieron para vidrios de spin se trasladan a la teoría de redes neuronales en forma más general. Al construir la mecánica estadística de estos sistemas, la dificultad radica en que no solo es necesario armar ensambles con copias de todos los alineamientos posibles de los spines, sino que también es necesario armar réplicas del sistema con diferentes acoplamientos Jij (ya que uno no sabe cuánto valdrán los pesos de cada neurona, o los acoplamientos de los spines). Parisi hizo contribuciones muy relevantes que permitieron atacar este problema, y entender propiedades generales de los estados de equilibrio. Y Hopfield, obviamente, inventó la red neurnal equivalente a estos sistemas que hoy lleva su nombre.
Los vidrios de spin y las redes de Hopfield, dada su complejidad, no tienen un único equilibrio: tienen una variedad muy grande de equilibrios posibles, que corresponden a mínimos locales de su energía libre. Así, la mecánica estadística de los vidrios de spin también nos da información sobre a qué estados posibles puede decaer una red neuronal durante el aprendizaje, o nos permite saber que ciertas redes neuronales pueden guardar “recuerdos”, y calcular la máxima cantidad de información que puede almacenarse en esas redes en función de su estructura, del número de neuronas, y del número de conexiones entre neuronas. Así que en la próxima fiesta en la que alguien les diga que el premio Nobel 2024 no era de física, pueden contarle todo esto.
[Aquí] pueden bajar la Guía 6, acerca de la estadística de Bose-Einstein.
Se aproxima la tan temida práctica computacional. En el Campus hay un link para que anoten sus grupos. Traten de no ser menos de tres por grupo. Los que ya aprobaron la práctica en el último año, avíseme por mail.