• La sombra de Sagitario

    *Por Gaston Giribet

    “Cuando (...) sobre un ambiente de sombra se proyecta una sombra más espesa... ¿qué le acontece a la poesía?", se preguntaba Macedonio Fernández en sus Cuadernos de todo y nada. Podríamos preguntarnos lo mismo nosotros acerca de la ciencia. Hoy, 12 de mayo de 2022, la colaboración Event Horizon Telescope, en conferencias de prensa simultáneas alrededor del mundo, dio a conocer la primera fotografía del agujero negro supermasivo que se encuentra en el centro de nuestra galaxia. La astrónoma Feryal Özel, quien estuvo a cargo del anuncio en la conferencia de la National Science Foundation (NSF), se refirió a Sagittarius A* como un “gigante gentil”, acaso en referencia su actividad famélica.

    A la izquierda, la imagen de Sagittarius A* (el agujero negro supermasivo, de 4.000.000 masas solares, ubicado en el centro de nuestra galaxia, a 26.000 años luz de aquí). A la derecha, la imagen de M87* publicada en 2019 (el agujero negro supermasivo, de 6.600.000.000 masas solares, ubicado en el centro de la galaxia Messier 87, a 53.000.000 años luz de aquí). Crédito: Event Horizon Telescope, 12/05/2022.

     

    Nuestra galaxia y su centro

    La Vía Láctea, esa franja turneriana que, irreverente, taja el cielo nocturno, no se trata sino del Sol incansablemente repetido. En el detalle, su textura lechosa se disuelve en cientos de miles de millones de puntos; cada uno de esos puntos, una estrella; cada una de esas estrellas, un sol en la distancia. El número de estrellas en nuestra galaxia es enorme: unas 200.000.000.000 estrellas, se estima. Se trata de uno de esos números que, sin importar la notación que elijamos para escribirlo, se nos presenta intuitivamente inasequible. Quizá ayude pensar que, si en un acto de justicia poética, cumpliésemos con asignar una de esas estrellas a cada alma que alguna vez haya existido, aun así quedarían en la galaxia muchas estrellas sin alma. Todas esas estrellas giran en torno a un centro común en el que, como intuían Kant y otros, existe un enorme astro. Laplace entendió la razón por la que ese astro permanece invisible a nuestros ojos: “los cuerpos más grandes en el universo podrían ser invisibles debido a sus propias magnitudes”, sugirió. Su invisibilidad sería inmanente. Los astros de tales dimensiones, que hoy llamamos “agujeros negros”, generan un campo gravitatorio tan intenso que ni siquiera la luz puede salir de ellos. Es su propio peso el que los sume en la más absoluta invisibilidad. Absolutamente nada puede escapar de su interior; ninguna luz, materia o radiación puede dejarlos. Su interior se encuentra, así, causalmente desconectado de nosotros: nada de lo que ahí adentro ocurre puede ser causa de un efecto externo. De este modo, si definimos el espacio como el escenario en el que acaecen los fenómenos físicos, no es inexacto decir que el espacio se acaba allí, en la superficie de los agujeros negros, en el llamado “horizonte de eventos”: Los agujeros negros son un bocado arrancado al espacio. El espacio mismo se recorta respetando la forma cuasiesférica de esos astros terriblemente gravitantes. Para toda consciencia externa, el espacio acaba allí; los agujeros negros son la misma ausencia del espacio en el que existen.

     

    Los agujeros negros y la teoría de la relatividad

    Los agujeros negros son los astros más fascinantes del universo. Su física es desconcertante, en cuanto su existencia tiene algo de paradojal: Si bien se trata de objetos astrofísicos oscuros, fríos y silentes, terminan estando aparejados con los fenómenos más violentos, energéticos y luminosos del universo. Al mismo tiempo, los agujeros negros desafían nuestra intuición hasta llevarnos al asombro; todas las nociones básicas de la física, como espacio y tiempo, se distorsionan cerca de ellos.

    Los agujeros negros son una predicción de la teoría general de la relatividad, formulada por Einstein hacia fines de 1915. Esta teoría es, sobre todo, una teoría sobre la interacción gravitatoria. Según Einstein, la interacción gravitatoria entre dos cuerpos (podemos pensar en el ejemplo de un astro orbitando a otro astro mayor) no se debe a que actúe entre ellos una fuerza en el sentido newtoniano sino a que cada uno de esos cuerpos, debido a su masa y su energía, curva el espacio en el que se encuentra, imprimiendo su huella en el entramado espaciotemporal. Según esta imagen einsteniana de la gravedad, la órbita de la Luna en torno a la Tierra no es debida a que exista entre ellas una fuerza, sino a que la masa de la Tierra curva el espacio-tiempo en su cercanía y, así, la Luna no hace sino ceñir su trayectoria a dicha curvatura. En la teoría de Einstein la gravedad ya no es una fuerza sino la curvatura del espacio mismo; la fuerza se ha transformado en geometría. Esto implica que también los rayos de luz verán desviadas sus trayectorias en las cercanías de un astro gravitante: en cuanto navegante del espacio, la luz no escapa del destino de amoldar su andar a las formas que otros cuerpos le imponen al espacio-tiempo. Esta deflexión de los rayos de luz debido a la cercanía de un astro gravitante es quizá una de las predicciones más sorprendentes de la teoría de Einstein. Ahora bien, la curvatura del espacio-tiempo tiene, por así decirlo, un límite: Si el astro es lo suficientemente denso, entonces el entramado espaciotemporal se curva tanto que forma un horizonte de eventos, i.e. una superficie que puede ser pensada como “un punto de no retorno” que divide el interior y el exterior del astro estableciendo una separación causal entre ambas regiones: nada del interior puede transmitir información al exterior ni afectarlo de manera alguna. Debemos este descubrimiento a Schwarzschild, quien, en la navidad de 1915, mientras se encontraba en el frente de batalla en la Primera Guerra, advirtió que la teoría de Einstein predecía que un objeto esférico que fuera lo suficientemente denso (e.g. que tuviera la masa del Sol concentrada en un volumen de 6 kilómetros de diámetro) acabaría formando un horizonte de eventos y convirtiéndose en un agujero negro. 

     

    Los agujeros negros como objetos astrofísicos

    Durante mucho tiempo los agujeros negros fueron considerados una curiosidad matemática, una predicción de las ecuaciones de la teoría einsteniana de la gravitación pero que dudosamente existirían en la naturaleza. ¿Astros lo suficientemente densos como para que su propia gravedad impida que nada de lo que ocurre adentro de ellos pueda afectar al exterior? Al comienzo esto sonaba descabellado, incluso para los expertos en la teoría de la relatividad. El mismo Einstein dudó de la existencia de los agujeros negros como objetos físicos, y hacia fines de los años 30 publicó un artículo en el que sugería que éstos no podrían existir. Más tarde, entre fines de la década de 1930 y comienzos de la década de 1970, con el refinamiento progresivo de la física nuclear, de la física estadística, de la astrofísica y de la formulación matemática de la teoría de la relatividad, una serie de trabajos vendría a dejar en claro que los agujeros negros podrían ser mucho más que una mera idealización matemática de la teoría de Einstein. Los nombres de Chandrasekar, Lifshitz, Oppenheimer, Penrose, Snyder, Tolman, Volkoff son asociados a los distintos avances que, a lo largo de casi cuarenta años, nos permitieron entender la genealogía estelar y nos convencieron de que los agujeros negros pueden, en efecto, formarse tras el colapso gravitacional de estrellas suficientemente masivas. Al final de sus vidas, tras agotar el combustible nuclear que alimenta su luz, las estrellas con determinadas características colapsan sobre si mismas debido a su propia gravedad. Esto produce una explosión termonuclear. Si la estrella original tiene una cantidad suficiente de masa (aunque no demasiada) entonces el colapso gravitacional es imparable y termina convirtiéndose en un agujero negro.

    La primera evidencia observacional de la existencia de los agujeros negros data de 1964. Dado que los agujeros negros son por definición invisibles, verlos comporta una dificultan inherente. Así, y como sugería tempranamente Michell, su existencia debe ser inferida a partir del comportamiento de la materia y la luz en sus inmediaciones: cerca de los agujeros negros la materia se arremolina, se calienta y se ioniza. Como resultado de esto, el astro oscuro se envuelve en un ambiente extremadamente luminoso, que emite en diferentes frecuencias; en particular, en rayos X. La primera fuente de rayos X identificada como un agujero negro fue Cygnus X-1, un sistema binario de nuestra galaxia que consiste en un agujero negro de más de 20 masas solares y una estrella azul supergigante. Descubierta casi de casualidad durante un vuelo en cohete, Cygnus X-1 fue durante mucho tiempo la evidencia más fuerte de la existencia de esos astros oscuros. Hoy, a 58 años de aquella observación, la evidencia de la existencia de los agujeros negros es abrumadora: fuentes de rayos X y gamma, detecciones de ondas gravitacionales, quásares, órbitas de estrellas en el centro galáctico, son sólo algunas de las pruebas de que los agujeros negros pueblan el cosmos. 

    En abril de 2019, la colaboración Event Horizon Telescope (EHT) dio a conocer la primera fotografía de un agujero negro. Se trata del agujero negro supermasivo M87*, de 6.600.000.000 masas solares, ubicado en el centro de la galaxia Messier 87 (M87), a 53.000.000 años luz de aquí. Un astro de esas dimensiones a tal distancia subtiende un ángulo de observación de algunas decenas de microsegundo de arco, lo que equivale al ángulo subtendido por una manzana en la superficie de la Luna vista desde el barrio de San Telmo. Un ángulo similar es el subtendido por el agujero negro supermasivo que se encuentra en el centro de nuestra galaxia, Sagittarius A*, que se encuentra miles de veces más cerca (26.000 años luz) pero es también miles de veces más pequeño (4.000.000 masas solares). A esto se debe que EHT haya elegido ambos targets de observación: M87* y Sagittarius A* (aunque la variabilidad mayor de la imagen de Sagittarius A* hace su observación más complicada que la de M87*). El día de hoy, 12 de mayo de 2022, EHT dio a conocer la fotografía de Sagittarius A*; pero hablaremos de esto más abajo. 

     

    Intuiciones

    Si bien los agujeros negros son una predicción de la teoría general de la relatividad, hubo ya en el siglo XVIII quienes, con intuición genial, intuyeron que astros de tales características podrían existir: En 1784, Michell supuso que astros de la densidad del Sol pero de muchísimo más grandes que éste podrían poblar el cosmos. Calculó cuánto más grande debería ser un astro tal para que la luz no pudiera escapar a su propia gravitación, y obtuvo un valor enorme: Cerca de 500 veces más grande que el Sol, sus cálculos decían. El radio del Sol es aproximadamente 700.000 kilómetros, lo que para Michell implicaba que sus hipotéticas estrellas negras, en caso de existir, serían gigantescas: Diámetros de cientos de millones de kilómetros, estimaba. Hoy sabemos que, de hecho, agujeros negros de tales tamaños existen en el universo; e incluso los hay más grandes y más masivos; colosales astros oscuros que someten gravitatoriamente a su propia luz y ejercen su influencia gravitatoria también sobre los otros astros. Michell vio en esto una manera de observar el fenómeno; pensó en cómo el influjo de las estrellas negras sobre los otros astros nos permitiría saber de su existencia: Aunque oscuros, aunque invisibles, esos astros enormes generarían un campo gravitatorio que afectaría el movimiento orbital de los cuerpos celestes que estuvieran cerca de ellos, y si esos otros cuerpos sí fueran luminosos entonces podríamos inferir de su extraño comportamiento la presencia de la enorme estrella oscura: 

    [P]odríamos tener indicio [de su existencia] si se diera que algún otro cuerpo luminoso orbitara en torno a ellos, cuyos movimientos no pudiéramos explicar mediante otras hipótesis (Michell, 1784).

    Es precisamente este fenómeno lo que hoy vemos, por ejemplo, en nuestra galaxia: El agujero negro del centro de la Vía Láctea, el gigantesco Sagittarius A*, es invisible a los ojos, pero el comportamiento de las estrellas cercanas a él, sometidas a su gravedad, termina delatándolo.    

    En 1796, de manera independiente y simultánea a Michell, Laplace también imaginó la existencia de las estrellas negras. Lo reportó en las primeras ediciones de su Exposition du Système du Monde y en un trabajo posterior de 1799. A diferencia de Michell, Laplace consideraba en su Exposition la hipótesis de astros más densos, con densidades comparables a la de la Tierra. Fue así como los diámetros de las estrellas negras pensadas por Laplace eran la mitad de los estimados por Michell. Laplace escribía:

    La atracción gravitatoria de una Estrella con un diámetro 250 veces más grande que el diámetro del Sol y de una densidad comparable a la de la Tierra sería tan grande que la luz no podría escapar de su superficie (Laplace, 1796).

    Sugirió incluso que, debido a esto, “[l]os cuerpos más grandes en el universo podrían, entonces, ser invisibles debido a sus propias magnitudes”; o, tal como el marqués lo expresara: “[I]l est donc possible que les plus grands corps lumineux de l'univers, soient par cela même, invisibles”.

    La hipótesis de que los agujeros negros tuvieran la densidad de astros conocidos, como el Sol o la Tierra, era por supuesto piadosa para los astrónomos del siglo XVIII. El bestiario de objetos astronómicos es rico y variado, por lo que esa hipótesis no está justificada y, de hecho, resultó incorrecta. También era incorrecta la idea de que la luz emitida por uno de esos astros dejaría por un lapso breve la superficie antes de volver a caer sobre sí misma: los agujeros negros no emiten luz en absoluto. Aun así, la intuición de Michell y Laplace, tan osada cuanto oscura, fue genial. Hoy tenemos evidencia incontestable de que su predicción más importante era cierta: “Los cuerpos más grandes en el universo [son] invisibles”. En el centro de nuestra galaxia hay uno de ellos.

    La existencia de un enorme astro en el centro de la Vía Láctea data también del siglo XVIII. En su libro de cosmología, aparecido de manera anónima en 1755, Kant escribió: 

    Si los centros de todos los grandes sistemas mundiales son cuerpos ardientes, con mayor razón se puede suponer lo mismo del cuerpo central de aquel inmenso sistema que forman las estrellas fijas. Pero este cuerpo cuya masa debe estar relacionada a la magnitud de su sistema, ¿no se destacaría ante los ojos, si fuera un cuerpo de luz propia o un sol, con extraordinario brillo y tamaño? Sin embargo, no vemos lucir en el ejército celeste ninguna estrella fija que se distinga especialmente (Kant, 1755).

    Acaso porque Kant identificó erróneamente ese astro central de la Vía Láctea con la estrella Sirio, propuso la siguiente explicación de su visibilidad: “[N]o debe extrañarnos que no sea así [que no destaque ante nuestros ojos]. Pues aun cuando superase 10.000 veces nuestro sol en magnitud y si se supiese su distancia 100 veces mayor que la de Sirio, no podría aparecer con mayor tamaño y brillo que este”. Sirio (Alpha Canis Majoris) es la estrella más brillante del cielo nocturno, y fue quizá por su luminosidad que Kant llegó a creer que Sirio se trataba de un sol enorme y distante que yacía en el centro de la Vía Láctea. Hoy sabemos que Sirio es, en realidad, un sistema estelar binario relativamente cercano: a unos 8,6 años luz de distancia de nuestro planeta, unas 3.200 veces más cerca que el centro galáctico.

    La presencia de un astro en el centro de nuestra galaxia fue también anticipada de manera donosa por Edgar Allan Poe en su Mellonta Tauta, esa hermosa bitácora imaginada de un viaje galáctico en globo: 

    El movimiento evidente de nuestro sistema en los cielos fue (¡extraño decirlo!) referido a una órbita alrededor de una estrella prodigiosa en el centro de la galaxia. Acerca de esta estrella, o en todo caso acerca de un centro de gravedad común a todos los globos de la Vía Láctea (…) Este orbe central, sin embargo, dinámicamente, debería haber sido más grande que todos los orbes circundantes tomados en conjunto. Entonces, podría haberse hecho la pregunta: “¿Por qué no lo vemos?” (…) Pero incluso admitiendo que el orbe central no fuera luminoso, ¿cómo arreglárselas para explicar que no se hiciera visible por la incalculable hueste de gloriosos soles que deslumbraban en todas direcciones a su alrededor? (Poe, 1849).

    Estas intuiciones resultaron correctas: Los centros de todos los grandes sistemas contienen cuerpos con masas relacionadas a sus enormes magnitudes. Las galaxias con núcleos activos que iluminan el cielo son, como Kant aventuraba, “grandes sistemas mundiales con centros ardientes”, de masas comparables a las de miles de millones de soles. Esos centros ardientes, sin embargo, cobijan celosamente astros centrales que son, en esencia, invisibles.    

     

    Sagittarius A*

    Hasta donde sabemos, todas las galaxias (al menos, las galaxias grandes) tienen en su centro un agujero negro supermasivo. E incluso sabemos que existían ya agujeros negros supermasivos en los centros galácticos cuando el universo era aún muy joven, cuando tenía el 5% de su edad actual (lo que nos deja como pregunta cómo pudieron formarse astros tan grandes en tan poco tiempo). En algunos casos, los agujeros negros alcanzan decenas de miles de millones de masas solares. Es el caso de TON 618, el agujero negro más grande conocido hasta la fecha, 16.500 veces más masivo que nuestro Sagittarius A*.

    Sagittarius A* fue detectado primero como una fuente de radio. Se trata de una fuente compacta y brillante de radiación electromagnética en radiofrecuencia. Se ubica en la constelación de Sagitario, y a eso debe su nombre. Forma parte de una radio-estructura aún mayor, llamada Sagittarius A, descubierta por Jansky a comienzos de 1933. El asterisco en el nombre Sagittarius A* corresponde a que esa fuente específica del conjunto Sagittarius A parece “excitada”. Fueron Balick y Brown quienes detectaron Sagittarius A* por primera vez, en 1974. Pocas décadas después quedaba ya claro que Sagittarius A* era una fuente de características de emisión y compactibilidad compatibles con las de un agujero negro supermasivo. Más tarde, el monitoreo de las órbitas de estrellas en torno al centro galáctico permitió concluir que, en efecto, Sagittarius A* está asociada a un agujero negro de más de 4.000.000 de masas solares que se encuentra en el centro de nuestra galaxia, a unos 26.000 años luz de nuestro sistema solar. Las pacientes imágenes en infrarrojo muestran que, cada 15,56 años, la estrella S02 completa una órbita en torno al enigmático astro oscuro que es foco de una cuasi-elipse gigantesca y apreciablemente excéntrica. S02 recorre esa elipse cada década y media, y lo hace de una forma que sería sisífica si no fuera por un ligero corrimiento del perihelio que la teoría de la relatividad le cobra como peaje. Es también a la teoría de la relatividad que S02 debe sus sutiles cambios de color: En la parte de la órbita que más le permite acercarse al agujero negro, a una distancia de 17 horas luz, S02 alcanza velocidades de miles de kilómetros por segundo, algo así como 1/60 de la velocidad de la luz. Esto permite observar efectos relativistas, como el corrimiento al rojo de la luz de la estrella debido a la alta velocidad que ésta alcanza respecto a nosotros (fenómeno predicho por la teoría especial de la relatividad). También se observa un corrimiento al rojo debido al intenso campo gravitatorio en las cercanías del agujero negro (efecto predicho por la teoría general de la relatividad). El corrimiento del perihelio de S02, decíamos ya, también parece compatible con lo predicho por la teoría de Einstein. Como la de S02, las órbitas de otras estrellas también muestran movimientos que están de acuerdo con la ubicación y masa del agujero negro. El estudio de esas estrellas en torno a Sagittarius A* valió la mitad del premio Nobel en física de 2020, otorgada a Genzel y Ghez, un astrónomo y una astrónoma involucrados en dos de los equipos que observaron con ingenio y acribia las órbitas en torno al centro de la Vía Láctea. Hoy la radio-fuente Sagittarius A* le cede su nombre al agujero negro que allí se encuentra.

     

    Event Horizon Telescope

    Según la teoría de Einstein, un agujero negro de 4.000.000 de masas solares como el que se encuentra en el centro de nuestra galaxia tendría un diámetro de unos 24.000.000 kilómetros. Esto puede parecernos mucho, pero a escalas galácticas no lo es. De hecho, un tamaño de 24.000.000 kilómetros empalidece al lado de los 26.000 años luz (miles de billones de kilómetros) que nos separan del centro galáctico. Esto significa que un astro como el que se encuentra en el centro galáctico subtiende un ángulo muy pequeño visto desde nuestro planeta: se trata de un ángulo de unas decenas de microsegundo de arco. Esto comporta una seria dificultad a la hora de observarlo: Dijimos ya que sería equivalente a querer observar una manzana en la superficie de la Luna. Lograr una resolución semejante, teniendo en cuenta la frecuencia con la que se observa en este caso (en el espectro de radiofrecuencia, a 230 GHz), exigiría un radiotelescopio tan grande como nuestro planeta. Para sortear esta dificultad, la colaboración Event Horizon Telescope, que reúne a cientos de científicos bajo la dirección de Sheperd Doeleman, coordina una red global de radio-observatorios que trabajan de manera sincrónica para observar fuentes de radio asociadas con agujeros negros con una resolución angular comparable a la del horizonte de eventos de Sagittarius A*. Los telescopios que forman la red son muchos: el radiotelescopio del Gran Telescopio Milimétrico Alfonso Serrano, en México; los radiotelescopios del Atacama Large Millimeter Array y el Atacama Pathfinder Experiment, en Chile; el South Pole Telescope, en la Antártida; el James Clerk Maxwell Telescope y el Submillimeter Array, en Hawái; el Submillimeter Telescope, en Arizona; el radiotelescopio del Instituto Radioastronómico Milimétrico, en España. Desde el llano de Chajnantor en el desierto de Atacama hasta el monte Mauna Kea de Hawái; desde el polo sur hasta la loma de Dilar en Sierra Nevada. Todos esos telescopios coordinados forman una red global que convierte a nuestro planeta en un gran radiotelescopio virtual del tamaño necesario para observar a Sagittaruis A* con la resolución angular necesaria para ver su horizonte de eventos. El 12 de mayo de 2022, en conferencias de prensa simultáneas alrededor del globo, la colaboración Event Horizon Telescope presentó la imagen de la primera imagen de Sagittarius A* (y la segunda de un agujero negro). La imagen muestra la sombra del agujero negro en el centro de la Vía Láctea aparecer recortada sobre su fondo que lo envuelve. 




  • SAN 2020: Física y neurociencia

    *Por Ana Amador, profesora del DF, FCEN-UBA e investigadora del IFIBA, CONICET.

    Entre el 7 y 9 de octubre nos conectamos a la reunión anual de la Sociedad Argentina de Neurociencias, la edición número 35 esta vez fue realizada de manera virtual. El evento convocó a más de 600 participantes. Un gran trabajo de la comisión organizadora y el compromiso de numerosos miembros de la sociedad de neurociencias hicieron posible una gran reunión: 6 charlas plenarias, 14 simposios, 22 charlas de jóvenes investigadores, 46 comunicaciones orales y 277 posters.

    Investigadores y docentes del DF participaron activamente, reforzando los lazos interdisciplinarios en neurociencias. Enzo Tagliazucchi (profesor del DF e investigador del IFIBA) organizó el simposio “Neural correlates of dreaming and dreamlike states” (1) y Juan E. Kamienkowski (JTP del DF e investigador del ICC) organizó el simposio “Representation of language networks. A talk between the Brain and Artificial Intelligence” (2). En mi caso, organicé el simposio “Auditory processing, vocal production and motor control” (3). Estos espacios nos permitieron encontrarnos con invitados de diversas partes del mundo, y así aprovechamos la virtualidad para fortalecer los vínculos internacionales de la comunidad interdisciplinaria de neurociencias. https://san2020.saneurociencias.org.ar/symposia/ 

    También participaron de la reunión científica fisiques y docentes que investigan y forman recursos humanos fuera del DF -con una perspectiva interdisciplinaria destacable-, como Mirta Villareal, Luz Bavassi y Verónica Pérez Schuster. El trabajo de estas docentes refuerza los vínculos interdisciplinarios del DF con la comunidad de neurociencias. Además de la presentación y discusión de los trabajos científicos, se realizó una actividad de género (4) y una discusión sobre políticas de Ciencia y Técnica en Argentina, donde el profesor del DF Fernando Stefani fue el disertante invitado (5).

    En esta conferencia hubo también trabajos de jóvenes investigadores de nuestra institución que fueron destacados al ser elegidos como presentaciones orales: Santiago Boari (JTP del DF e investigador postdoctoral en el LSD) presentó una charla de joven investigador, mientras que Juan F. Döppler (JTP del DF y estudiante doctoral del LSD) y Laura Alethia de la Fuente (estudiante doctoral del COCUCO) presentaron comunicaciones orales. Varios estudiantes doctorales con lugar de investigación en el DF presentaron también sus trabajos de investigación en forma de póster.

    Esta nutrida representación de físiques del DF en la reunión anual de la Sociedad Argentina de Neurociencias es el reflejo de una larga historia de trabajos interdisciplinarios en el área de biofísica en el DF, que comenzaron hace más de 20 años.

    • CHAIR: Tagliazucchi, Enzo. SPEAKERS: Pilleriin Sikka, Department of Cognitive Neuroscience and Philosophy, School of Bioscience, University of Skövde, Sweden; Tristan Bekinschtein,University of Cambridge, UK ; Natália Bezerra Mota, Brain Institute of the Federal University of Rio Grande do Norte (UFRN) and Physics Department of the Federal University of Pernambuco (UFPE), Brasil ; Enzo Tagliazucchi, Instituto de Física de Buenos Aires y Departamento de Física, FCEN, UBA, Argentina. https://san2020.saneurociencias.org.ar/symposia/
    • CHAIRS: Juan E Kamienkowski and Bruno Bianchi. SPEAKERS: Leila Wehbe, Carnegie Mellon University, School of Computer Science, Machine Learning Department, Neuroscience Institute, US; Liberty Hamilton, Department of Communication Sciences & Disorders, The University of Texas at Austin, US ; Alex Huth, Computer Science & Neuroscience, The University of Texas at Austin, US ; Diego Fernández Slezak, Computer Science Department, University of Buenos Aires, Argentina. https://san2020.saneurociencias.org.ar/symposia/
    • CHAIR: Amador, Ana. SPEAKERS: Richard D. Mooney, Duke University School of Medicine, Durham, NC, US; Mimi H. Kao, Tufts University, Medford, MA, US; Sarah M.N Woolley, Zuckerman Institute and the Kavli Institute for Brain Science, Columbia University, New York, NY, US; Ana Amador, Department of Physics, University of Buenos Aires, and IFIBA-CONICET, Argentina. https://san2020.saneurociencias.org.ar/symposia/
    • IBROLARC CEPAL: Presentation of Gender Survey Results, Ana Silva (Instituto de Investigaciones Biológicas Clemente Estable, Uruguay, IBRO LARC), Cecilia Tomassini (CEPAL) and Cecilia Bouzat (INIBIBB, UNS/CONICET, IBRO LARC). Presentación de resultados de una encuesta para analizar balance de género realizada en Argentina, Brasil, Chile, Cuba, Mexico y Uruguay. Los resultados describen el desarrollo de las carreras científicas de hombres y mujeres relacionadas con su vida familiar, así como la percepción de obstáculos para el éxito laboral. https://san2020.saneurociencias.org.ar/e-socials/

     Página de la SAN:

    https://www.saneurociencias.org.ar/

  • Día del DF 2019

  • La física detrás de Ant-Man y The Wasp

    *Por Pablo Mininni

    El último 19 de noviembre una de las presentaciones orales mas anticipadas de la reunión anual de la División de Fluidos de la Asociación Americana de Física apareció en diarios y revistas del espectáculo. Los organizadores de la reunión, a la que asisten cada año más de tres mil personas, no pudieron conseguir para esta presentación un recinto lo suficientemente grande y el público se acumuló en las puertas.

    La charla tenía un título -como menos- llamativo: “Ant-Man and The Wasp: Helping Marvel superheroes breathe”. Ant-Man es un superhéroe de Marvel que puede encogerse al tamaño de una hormiga, o crecer por encima de los treinta metros de altura y convertirse en un Goliat. Creado por los legendarios Stan Lee, Larry Lieber y Jack Kirby en 1962, alcanzó la fama fuera del mundo de los cómics en dos películas recientes de Marvel Studios. The Wasp (la avispa), creada solo un año después, es su versión femenina y en los cómics es una de las fundadoras originales de Los Vengadores. Y aunque el interés de la prensa del espectáculo por estos temas puede ser entendible -las películas de superhéroes pueden facturar mas de 500 millones de dólares-, el interés que despertó esta charla y un paper reciente de los mismos autores es un fenómeno propio de otro universo.

    Mientras Ant-Man y The Wasp reducen su tamaño utilizando un traje especial -y unas muy dudosas partículas fundamentales no descubiertas por el momento-, mantienen su masa y su fuerza original. Y aunque el cambio de tamaño podría ser motivo más que suficiente para dudar sobre la verosimilitud científica de toda la historia, los autores de este paper consideraron desde el punto de vista físico los problemas que estos cambios pueden generar a los cuerpos de quienes utilizan los trajes.

    El trabajo fue publicado en 2018 en una revista cuyo nombre es de por sí gracioso: A. Staples y M. Mikel-Stites. "Ant-Man and The Wasp: Microscale respiration and microfluidic technology”. Superhero Science & Technology 1, 2018 (DOI: 10.24413/SST.2018.1.2474) https://journals.open.tudelft.nl/index.php/superhero/article/view/2474

    Para cerrar este año 2018, y como lectura ligera para iniciar el verano, les recomiendo una mirada a este trabajo. Cada cual puede tener sus propias razones: conocer algo sobre la física de los superhéroes, un tema que es cada vez más usado para despertar vocaciones por la ciencia en los adolescentes; satisfacer una curiosidad (¡o algún gusto culposo!) por personajes que se visten con su ropa interior por encima de sus pantalone; poder comentar a sus amigos que en otros países del mundo los científicos también dedican parte de su tiempo a pensar estupideces; o simplemente, divertirse un poco con el uso que hacen los autores de conceptos físicos para intentar explicar cómo funcionan las cosas, aun en situaciones un poco delirantes.

    Los autores, que cuando no dedican su tiempo a pensar en la física de los superhéroes trabajan en el estudio de la dinámica de fluidos biológicos, se concentran en este paper especialmente en temas de microfluídica, y en cómo los dispositivos actuales permitirían que Ant-Man y The Wasp respiren cuando se reducen al tamaño de un insecto. Uno de los principales desafíos que deben resolver estos superhéroes tiene que ver con el volumen de aire que pueden tomar sus pulmone: al reducirse en tamaño la cantidad de aire que pueden tomar en cada bocanada también se reduce, y se vuelve comparable a la que respiran los escaladores cuando se encuentran por encima de los ocho mil metros de altura (aunque en este último caso no se debe a un cambio de tamaño, sino al cambio en la densidad del aire con la altura). Pero como en el caso de los escaladores del Monte Everest, sin aclimatación o ayuda respiratoria, la falta de oxígeno puede generar complicaciones que pueden culminar en la muerte, o aún peor, pueden hacer peligrar la aparición de nuevas películas sobre Ant-Man y The Wasp.

    Con un poco de ingenuidad y algo de publicidad (al fin y al cabo, el paper es también una forma de promocionar algunos resultados previos del mismo grupo sobre la microfluídica de la respiración en insectos), los autores discuten en detalle qué dispositivos microfluídicos sería necesario usar para asistir a la respiración de los superhéroes, y qué tipo de válvulas, compresores, bombas y tuberías se deberían utilizar. Y no contentos con esto, también discuten algunos aspectos sobre los cambios en el metabolismo de los superhéroes asociados al cambio de tamaño, y cómo estos cambios impactarían en la dinámica de fluidos en sus cuerpos. Con un largo de 16 páginas, el paper se lee rápidamente, y por encima de todo, entretiene. ¡Felices vacaciones!

    Pablo Mininni es profesor en el Departamento de Física en Exactas-UBA e Investigador del CONICET.

  • Experimento de física a escala global desafía a Einstein con la ayuda de 100 mil voluntarios

    Experimentos simultáneos en cinco continentes desafían el principio de realismo local imaginado por Einstein. Los participantes contribuyeron al experimento generando más de 90 millones de bits, eligiendo en forma impredecible distintas mediciones para eludir la paradoja conocida como “la trampa (loophole) de libertad de elección”. Este estudio fue publicado en la revista Nature.

    El 30 de Noviembre de 2016, más de 100.000 personas alrededor del mundo contribuyeron a un conjunto de experimentos de física, primeros en su género, conocido como The BIG Bell Test. Usando smartphones y otros dispositivos con conexión a internet, los participantes aportaron bits impredecibles, que fueron utilizados para determinar de qué manera iban a ser medidos átomos entrelazados, fotones y dispositivos superconductores en doce laboratorios distribuidos por todo el mundo. Los científicos utilizaron este aporte humano para cerrar un loophole, es decir una ambigüedad, que se presenta en forma ubicua en los experimentos del principio de realismo local de Einstein. Los resultados ya han sido analizados, y se reportan en la edición de esta semana de la revista Nature.

    En un test de Bell (así llamado por el físico John Stewart Bell), pares de partículas entrelazadas como fotones se generan y se envían a distintas ubicaciones, en las que se mide alguna propiedad de estas partículas como el color de los fotones o su tiempo de llegada. Si los resultados de las mediciones tienden a coincidir, independientemente de qué propiedades elijamos medir, esto tiene implicaciones muy sorprendentes: o la medición sobre una partícula afecta en forma instantánea a la otra partícula (a pesar de estar alejadas entre sí), o – aún más extraño – estas propiedades nunca existieron: fueron creadas por la misma medición. Cualquiera de estas posibilidades contradice el realismo local, la cosmovisión de Einstein sobre un universo independiente de nuestras observaciones, en el cual ninguna influencia ni información puede viajar más rápido que la luz.

    El BIG Bell Test les pidió a voluntarios humanos, conocidos como Bellsters, elegir las mediciones, para cerrar el llamado “loophole de libertad de elección” – la posibilidad de que las propias partículas influencien la elección de de la medición. Tal influencia, si existiera, invalidaría el test; sería como si se les permitiera a los estudiantes escribir las preguntas de sus propios exámenes. Este loophole no se puede cerrar eligiendo con un dado o un generador de números aleatorios, porque siempre existe la posibilidad de que estos elementos físicos estén coordinados con las partículas entrelazadas. Las elecciones humanas introducen el componente de libertad de elección, por el cual las personas pueden elegir independientemente de lo que fuera que las partículas pudieran estar haciendo.

    Liderado por el ICFO-The Institute of Photonic Sciences, en Barcelona, el BIG Bell Test reclutó participantes alrededor del mundo para contribuir con secuencias de ceros y unos (bits) impredecibles, a través de un videojuego online. Los bits fueron enrutados a experimentos de vanguardia en Brisbane, Shanghai, Viena, Roma, Munich, Zurich, Niza, Barcelona, Buenos Aires, Concepción (Chile) y Boulder (EUA), donde fueron utilizados para ajustar los ángulos de rotación de polarizadores y otros elementos de laboratorio, que determinaron de qué manera se medirían las partículas entrelazadas.

    Los participantes contribuyeron con más de 90 millones de bits, posibilitando un test severo para el realismo local, así como también otros experimentos sobre realismo en la mecánica cuántica. Los resultados obtenidos muestran una fuerte discrepancia con la visión de Einstein, cierran por primera vez el loophole de libertad de elección, y ensayan varios métodos nuevos para el estudio del entrelazamiento y el realismo local.

    EL EXPERIMENTO de Entrelazamiento en Polarización de Buenos Aires (CITEDEF-UBA)

    Cada uno de los doce laboratorios distribuidos por el mundo llevaron a cabo un experimento diferente, para probar el realismo local en distintos sistemas físicos y para probar otros conceptos relacionados con el realismo. El experimento realizado en el Laboratorio de Óptica Cuántica de CITEDEF (Buenos Aires) por investigadores de CITEDEF, CONICET y la UBA, estudió la violación de la desigualdad de CHSH-Bell (una medida de la discrepancia entre la realidad y las teorías de realismo local) utilizando fotones entrelazados en polarización, generados por conversión paramétrica descendente en un arreglo de cristales no lineales. El experimento completo utilizó 10.033 bits aleatorios, generados por Bellsters distribuidos alrededor del mundo y transmitidas por los servidores del BBT en Barcelona; estos bits definían distintas configuraciones para la medición de la polarización. El experimento resultó en una violación de la desigualdad de CHSH-Bell por siete desviaciones estándar. Esto significa que si el experimento fuera repetido todos los días en un mundo regido por el realismo local, un resultado como el obtenido debería obtenerse una vez en mil millones de años.

    Miguel Larotonda, Profesor en UBA e Investigador en CITEDEF-CONICET: “Es un experimento que tiende a cerrar el abismo existente entre el público en general y los conceptos 'extraños' y anti-intuitivos de la mecánica cuántica, al atraer y motivar a participantes de todo el mundo para producir secuencias impredecibles de bits, que alimentan experimentos simultáneos y de última tecnología en una cantidad de laboratorios de todo el mundo. En Argentina, el experimento BBT generó un interés sin precedentes en los medios, en el periodismo científico en particular y en el público no especializado en general.”

    Carlos Abellán, investigador en ICFO e impulsor del proyecto: “El BIG Bell Test fue un proyecto increíblemente desafiante y ambicioso. En el comienzo parecía de una dificultad imposible de sortear, pero se convirtió en una realidad gracias al esfuerzo de docenas de científicos entusiastas, comunicadores científicos, periodistas y distintos medios, y especialmente a las decenas de miles de personas que contribuyeron al experimento durante el 30 de Noviembre de 2016.”

    Morgan Mitchell, líder del proyecto BBT y Profesor de la Insititució Catalana de Recerca I Estudis Avançats (ICREA) en el ICFO: “Para mí, lo más asombroso es que la discusión entre Einstein y Niels Bohr, después de más de 90 años de esfuerzos para plantearla de forma más rigurosa y estudiarla en forma experimental, aún conserva un componente humano y filosófico. Sabemos que el bosón de Higgs y las ondas gravitacionales existen gracias a máquinas sorprendentes, sistemas físicos construidos para poner a prueba las leyes de la física. Pero la del realismo local es una pregunta que no podemos contestar en forma completa usando una máquina. Pareciera que nosotros mismos debemos ser parte del experimento, para preservar la honestidad del Universo.”

    El equipo del BIG Bell Test quiere agradecer una vez más a los miles de participantes que en forma tan entusiasta y generosa contribuyeron a esta iniciativa. Sin su aporte esencial, este experimento nunca habría sido posible. Referencia: Challenging local realism with human choices, The Big Bell Test Collaboration, Nature 2018.

    https://www.nature.com/articles/s41586-018-0085-3
    https://arxiv.org/abs/1805.04431

     

     

     

  • Recomendado de Ana Amador

    El desarrollo vocal, tanto en humanos como en vertebrados, es un proceso continuo e interactivo que se genera entre el cuerpo, el sistema nervioso central y la experiencia social. Si bien sería difícil intentar explicar cualquier aspecto del desarrollo vocal sin tener en cuenta estas interacciones, el estudio de este problema suele enfocarse en el sistema nervioso central. En particular, se ha puesto muy poca atención en el rol que juega el cuerpo durante el desarrollo. Esto es un resultado de una perspectiva más general de la neurociencia donde el paradigma predominante es que el cuerpo sigue las instrucciones que recibe del cerebro como si fuera un títere. O sea, cada detalle de cada comportamiento está codificado en el cerebro. Este enfoque se basa principalmente en tener una “perspectiva lineal” del problema. Si modelamos al cuerpo como un sistema que está siendo “forzado” por el cerebro, en un paradigma lineal el cuerpo sigue la frecuencia del forzante. Si en cambio consideráramos que el cuerpo es un sistema no-lineal, entonces la emergencia de sub-armónicos surge naturalmente. O sea, un sistema no-lineal puede presentar mucha más riqueza, donde pequeñas variaciones del sistema forzante podrían generar cambios cualitativos en el sistema que está siendo forzado.

    El trabajo de Zhang y Ghazanfar pone de manifiesto la importancia que puede tener el cuerpo durante el desarrollo, proponiendo una forma específica en la que el crecimiento corporal podría condicionar el proceso. En este trabajo se estudian los cambios en las vocalizaciones de monos tití juveniles (Callithrix jacchus) durante el desarrollo, utilizando para esto una amplia gama de técnicas que incluyen modelos computacionales y experimentos que imitan la reversión del crecimiento. Sus resultados sugieren que los cambios cualitativos que se producen durante el desarrollo se basan en la interacción no-lineal entre el sistema nervioso y la biomecánica implicados en la respiración.

    Brevemente, los autores encuentran que los aumentos en la duración de las vocalizaciones y los cambios en el uso de las mismas, podrían atribuirse al crecimiento de los pulmones, que proporcionan la potencia respiratoria para producir vocalizaciones. En primer lugar, realizaron predicciones específicas sobre los mecanismos de generación de las distintas vocalizaciones, utilizando para esto un modelo biomecánico que incluye la laringe y el sistema respiratorio. Luego, estas predicciones se pusieron a prueba empíricamente registrando las vocalizaciones de los titís juveniles en un ambiente helio y oxígeno (heliox), que reduce la carga respiratoria. El ambiente de heliox simula una reversión en el crecimiento pulmonar y, como se había predicho utilizando modelos computacionales, da como resultado una reversión al comportamiento vocal inmaduro. Este trabajo subraya la importancia de considerar el organismo completo, y no solo el sistema nervioso, cuando intentamos comprender cómo emerge un comportamiento complejo. Metodológicamente, es un ejemplo excepcional de integración entre modelado dinámico de sistemas físicos y experimentos biológicos.

    Yisi S. Zhang and Asif A. Ghazanfar: Vocal development through morphological computation, PLoS biology 16(2): e2003933. February 20, 2018
    https://doi.org/10.1371/journal.pbio.2003933

    *Ana Amador es jefe de trabajos prácticos del Departamento de Física de Exactas UBA e Investigadora de CONICET en IFIBA-UBA.

     

  • Gastón Giribet sobre entrelazamiento cuántico y agujeros de gusano

    El profesor del DF repasa las investigaciones recientes de Juan Maldacena y colaboradores acerca de la relación entre mecánica cuántica y agujeros negros.

    Uno de los resultados sobresalientes arrojados por la investigación en física teórica en los últimos cinco años ha sido la observación de una estrecha relación entre ciertos aspectos de la información cuántica y la geometría de los agujeros negros. Este es un descubrimiento tan sorprendente cuanto inesperado dado que viene a relacionar dos subdisciplinas que, hasta el momento, parecían pertenecer a esferas diferentes.

    La conexión entre información cuántica y gravedad nace del intento de los físicos por tratar de resolver algunas paradojas desconcertantes a las que nos enfrenta el estudio de la evolución de los agujeros negros. Esta conexión se hace concreta en un trabajo de 2013, en el que Juan Maldacena y Leonard Susskind propusieron lo que hoy se conoce como “la correspondencia ER=EPR”, una críptica igualdad entre dos acrónimos que refieren a los nombres de tres célebres físicos: Einstein-Rosen (ER) y Einstein-Podolsky-Rosen (EPR). Pero, antes de explicar qué es la correspondencia ER=EPR, dediquemos unos párrafos a recordar de qué hablamos cuando hablamos de ER y EPR. Comencemos por lo segundo (EPR) dado que se trata de una noción más familiar.

     

    Entrelazamiento cuántico y agujeros de gusano

    Como decíamos, EPR refiere a Albert Einstein, Boris Podolsky y Nathan Rosen, quienes en 1935 escribieron un artículo1 en el que se hacían la pregunta de si “puede la descripción mecano-cuántica de la realidad ser considerada completa”. Como la mayoría de los artículos cuyos títulos cobijan una pregunta por sí o por no, la pretensión del trabajo de estos notables físicos era sugerir una respuesta negativa. Hoy, empero, hemos aprendido a vivir con un “sí” como respuesta. De todas formas, independientemente del error en el espíritu del trabajo original de Einstein y sus colaboradores, el aporte de éstos a la mecánica cuántica ha sido enorme, dado que evidenció la importancia del efecto que conocemos como “entrelazamiento cuántico” –un término acuñado ese mismo año por Erwin Schrödinger–.

    El entrelazamiento cuántico es el fenómeno por el cual un conjunto de partículas puede encontrarse en un estado cuántico que no admite ser descripto por la mera agregación de los estados individuales de las partículas que lo forman. En otras palabras, cuando existe entrelazamiento la función de onda que describe el estado del sistema cuántico refiere inevitablemente al sistema como un todo inescindible, lo que expresa que los subsistemas (cada partícula) se encuentran “entrelazados”. En el caso de que el conjunto de partículas se compone de sólo dos de ellas, el sistema entrelazado recibe el nombre de “par EPR”. El ejemplo por antonomasia de un par EPR es el de dos partículas (llamémoslas A y B) que se envían a dos regiones, distante una de la otra. Debido al entrelazamiento de los estados que describen las dos partículas, la medición de una dada cantidad física de la partícula A que un laboratorista decidiera realizar determinará los resultados posibles de una medición ulterior que un segundo laboratorista, aunque distante del primero, fuera a realizar sobre la partícula B. Esto es, los resultados posibles de una medición realizada sobre B dependen del resultado de la medición realizada sobre A, y esto es así independientemente de si las dos partículas se encuentran a varios pársecs de distancia una de la otra. Esto, aunque a primera vista podría parecer como una acción a distancia, no entra en contradicción con ningún principio de la relatividad ni propiedad local de las leyes físicas. De hecho, este fenómeno, aunque inquietante, no puede ser empleado para transmitir información más rápido que la luz.

    Pasemos ahora a describir el lado izquierdo de igualdad ER=EPR; hablemos de lo que Einstein y Rosen hacían cuando Podolsky no miraba: En un artículo del mismo año, 1935, Einstein y Rosen mostraron que las ecuaciones de la teoría de la relatividad general, que describen la gravedad como una deformación del espacio-tiempo, admiten soluciones que representan un escenario muy peculiar en el cual dos agujeros negros, en principio distantes, podrían estar conectados por un túnel interno; como si se tratara de una suerte de atajo en el espacio y el tiempo, un túnel del cual cada agujero negro es una boca de entrada2. Esto se conoce con el nombre de “puente de Einstein-Rosen” o también como “agujero de gusano”. A diferencia de los agujeros de gusano y pasajes espaciotemporales a los que nos tiene acostumbrados la ciencia-ficción, el puente de Einstein-Rosen no puede ser atravesado; es decir, uno no puede entrar por un lado y salir por el otro. Poder hacerlo requeriría la existencia de materia exótica de un tipo que no existe en nuestro universo –o la preponderancia de efectos cuánticos que son desdeñables para los propósitos del turismo espaciotemporal–. Debido a esta imposibilidad de ser atravesados, y al igual que ocurre con los pares EPR, los agujeros de gusano de ER no pueden ser empleados para transmitir información más rápido que la luz. Aun así, es interesante que, aunque no pueda uno entrar por un agujero negro en una galaxia y salir por un agujero negro de otra, la física sí permita que ambos agujeros negros compartan el mismo interior.

    Como notamos, los pares EPR y los puentes ER son sistemas físicos quea priori pertenecen a reinos muy diferentes. Mientras los primeros nos hablan de las propiedades de entrelazamiento de las partículas, los segundos nos hablan del fabuloso bestiario de topologías que el espacio-tiempo puede adquirir a escalas astrofísicas. Ahora bien, aunque de reinos diferentes, reconocemos inmediatamente que EPR y ER comparten mucho más que dos autores y el año de publicación de los trabajos: Tanto EPR como ER nos cuentan de la interconectividad de sistemas distantes y de cómo esta conectividad se logra sin que atente contra el principio que dicta que no es posible enviar información más rápido que la luz. En este sentido ER y EPR se parecen mucho y cabe la pregunta de si hay, acaso, una conexión más directa entre ellos.

    A esta pregunta parecen responder por la afirmativa Maldacena y Susskind en su artículo de 2013, tituladoHorizontes fríos para agujeros negros entrelazados, en el que arguyen que ER y EPR son dos efectos conectados o, de manera más sucinta, ER=EPR.

     

    La conjetura ER = EPR

    En su trabajo3, Maldacena y Susskind formulan dos conjeturas; la primera, menos especulativa que la segunda. Comienzan afirmando que dos agujeros negros que se encuentran separados por grandes distancias y cuyos interiores están conectados por un puente de ER pueden ser pensados como si se tratara de dos astros cuyos estados cuánticos están máximamente entrelazados. La segunda conjetura de estos dos renombrados físicos va más allá al proponer una versión recíproca de la afirmación anterior: todo par EPR en mecánica cuántica, aunque se trate éste de dos fotones entrelazados como los que se generan en laboratorios, tiene asociado un puente ER. Claramente esto último merece una aclaración ya que de ninguna manera podríamos acepar que cada vez que creamos un par EPR en nuestros laboratorios estamosipso facto abriendo túneles en el espacio-tiempo… ¿O acaso sí?

    Pues bien, Maldacena y Susskind proponen que, en efecto, así es; pero ocurre que esos túneles espaciotemporales, esos puentes de ER que acompañan a cada par de partículas entrelazadas, han de ser microscópicos y de naturaleza cuántica, algo que, a falta de una teoría de la gravedad cuántica, aún no entendemos completamente.

    Maldacena, junto a muchos otros colegas del área, se encuentra trabajando activamente en esta idea con el objetivo de hacer más precisa su formulación, entender sus implicancias y tratar de generalizarla. En relación con esto, recientemente hubo trabajos muy interesantes en los que se ahonda en la relación entre agujeros de gusano y procesos de información cuántica. Por ejemplo, el año pasado se logró entender cómo los protocolos de teleportación cuántica admiten una descripción dual en términos de señales que atraviesan agujeros de gusano –sumado esto a un canal clásico, como suele aparecer en las realizaciones de este tipo de procesos–. También es interesante la línea de investigación reciente que trata de relacionar la descripción geométrica de los agujeros de gusano con lo que se conoce como “red de tensores” y con estructuras matemáticas similares. Esta es un área de gran actividad a la que muchos físicos teóricos se dedican actualmente. Sin ir más lejos, hoy mismo Maldacena y Xiao-Liang Qi acaban de publicar en la base de datos arXiv un interesante trabajo en el que estudian agujeros de gusano que sí permiten ser atravesados y cómo los mismos admiten una descripción análoga en términos de sistemas simples de mecánica cuántica.

     

    La pared de fuego en el horizonte de eventos

    Una de las aplicaciones más importantes de la conjetura ER=EPR, y que fue en efecto la motivación original para que Maldacena y Susskind comenzaran a investigar el problema, es la resolución de lo que se conoce como “la paradoja de Almheiri-Marolf-Polchinski-Sully” (AMPS), también conocida como “la propuesta de la pared de fuego”. En 2012, Polchinski y sus colaboradores publicaron un trabajo4 en el que mostraban la incompatibilidad entre las siguientes tres propiedades físicas:a) la unitariedad de la evolución temporal de la teoría cuántica,b) el principio de equivalencia entre inercia y gravedad de la teoría de la relatividad, yc) la descripción de la naturaleza en términos de una teoría local de campos. Estas tres propiedades físicas, según afirmaban los autores del trabajo4 aduciendo sólidas razones, no pueden ser todas ciertas simultáneamente. Esto representa un serio problema ya que tanto el principio de unitariedad como el principio de equivalencia y la noción de campo son piezas paradigmáticas en las que se basa todo lo que entendemos en física. Si estos tres elementos constitutivos de nuestro corpus teórico son incompatibles, entonces debemos renunciar a uno de ellos al menos; pero ¿a cuál? ¿Por cuál de nuestros pilares predilectos elegir? ¿La unitariedad?, ¿la equivalencia?, ¿la localidad y los campos?

    La respuesta de Polchinski y sus colaboradores fue tajante: De ninguna manera podemos descartar la unitariedad y lo que hemos aprendido de la cuántica; renunciemos, pues, al principio de equivalencia. Parecía la opción más lógica. Pero esto no se logra sin dolor: Abandonar el principio de equivalencia trae aparejados problemas conceptuales no menores. Por ejemplo, según este principio un observador en caída libre no puede experimentar nada que no sea equivalente a lo que experimenta un observador libre de fuerzas. En particular, un observador cayendo libremente hacia un agujero negro –lo suficientemente grande– no debería sentir nada especial al atravesar la superficie del astro, superficie que recibe el nombre de “horizonte de eventos”. Ahora bien, si AMPS están en lo cierto y el principio de equivalencia deja de ser válido en las inmediaciones de los agujeros negros, entonces uno debe aceptar que un observador en caída libre hacia el astro debería incinerarse al instante de atravesar el horizonte de eventos. A este fenómeno de incineración de la información entrante se lo conoce como “pared de fuego”.

     El argumento preciso para abogar en favor de la pared de fuego involucra nociones de información cuántica, pero puede resumirse de manera sencilla así: Por un lado, los agujeros negros emiten una radiación térmica, tenue pero persistente. La unitariedad de la mecánica cuántica demanda que, para un agujero negro lo suficientemente viejo que haya ya transferido al medio interestelar al menos la mitad de su entropía, el estado cuántico que describe las partículas que componen dicha radiación debe estar entrelazado máximamente con el estado cuántico que describe la materia que le dio origen al astro. Por otro lado, el principio de equivalencia demanda que esa misma materia que formó el astro debe estar también en un estado cuántico máximamente entrelazado con aquel que describe lo que el agujero negro encierra en su interior. Pero en esto hay un serio problema ya la mecánica cuántica prohíbe esta poligamia de entrelazamientos: o bien el entrelazamiento se da con la radiación saliente o bien con la materia en el interior, pero no con ambos. Ergo, el principio de unitariedad y el principio de equivalencia no pueden ser ciertos al mismo tiempo. Alguno debe claudicar. Si el segundo de estos principios es el que deja de valer, entonces algo violento debe experimentar el observador que cruza el horizonte, algo que destruya el entrelazamiento –la información– con aquello que entra al agujero negro.

    Esta observación de AMPS desató un vehemente debate; en especial, entre 2012 y 2013. Ante la disyuntiva de si uno debía renunciar al principio de unitariedad o al principio de equivalencia, los físicos teóricos adoptaron distintas posiciones, la mayoría optando por aferrarse al primero de ellos. La conjetura de ER=EPR de Maldacena y Susskind vino a resolver el dilema y calmar las aguas. En efecto, hoy se yergue como una posible solución. Según ER=EPR, el argumento en favor de la pared de fuego encierra una falacia: En el experimento imaginario con el que se proponía exponer la contradicción entre el principio de unitariedad y el principio de equivalencia aparece la instancia de hacer mediciones sobre la radiación emitida por el agujero negro y cotejar los resultados de esas mediciones con otras llevadas a cabo por los observadores que cruzan la superficie del astro. Maldacena y Susskind aducen que esa medición sobre la radiación emitida por el agujero negro no es inocua sino que afecta lo que un observador que cruza el horizonte vaya a experimentar, de manera análoga a como la medición sobre la partícula A de un par EPR determina los posibles resultados de la medición efectuada sobre la partícula B. Esto puede ser interpretado como si existieran puentes de ER entre un agujero negro y las partículas que componen la radiación que él mismo emite. Así, si un observador lejano al agujero negro decide no realizar medición alguna sobre los quanta que componen la radiación emitida por el agujero negro, entonces un observador que cruzara el horizonte de eventos no sentiría nada especial al hacerlo; pero, si por el contrario el observador distante sí realizara una medición sobre la radiación emitida, entonces al hacerlo estaría enviando información a través de los micro-puentes ER que unen cada partícula de la radiación con el agujero negro que las emitió, y esto podría producir una pared de fuego en el interior del astro que terminaría por fulminar al atrevido viajero que desee entrar en él.

     

    Los agujeros negros como hologramas

    La exposición precisa de la conjetura ER=EPR requiere un conocimiento previo de los trabajos de Maldacena5,6, y en especial del que lo hizo famoso: la correspondencia AdS/CFT, enunciada en 1997. La correspondencia AdS/CFT nos permite estudiar la física de los agujeros negros y de la radiación que éstos emiten en términos de teorías de campos que “viven” en un espacio de una dimensión menor. Es decir, permite pensar a los agujeros negros en nuestro espacio-tiempo 4-dimensional en términos de una teoría 3-dimensional más sencilla, como si no fueran esos astros más que hologramas abstrusos cuya información se almacena en un sustrato de una dimensión menor a la del objeto representado.

    La correspondencia AdS/CFT de Maldacena vino a darle sustancia a una idea que ya había sido planteada, aunque vagamente, por otros físicos teóricos antes que él, físicos entre los que se encuentra el mismo Susskind8. Esta idea paradigmática se conoce como “principio holográfico” y establece que el universo todo, con sus tres dimensiones espaciales y su dimensión temporal, puede ser representado por una teoría más simple con tan solo dos dimensiones espaciales –más el tiempo–. Si esto es cierto, todo lo que existe en nuestro universo, y en particular los agujeros negros que éste contiene, serían imágenes holográficas cuya información reside en un mundo de sólo dos dimensiones espaciales y regido por leyes más simples. El espacio-tiempo sería, así, una noción emergente.

    En el marco de esta idea, Maldacena se planteó en 2001 la siguiente pregunta: Si todo sistema físico, y en especial aquellos que involucran agujeros negros, puede ser pensado holográficamente en términos de una teoría “dual” más sencilla, ¿cuál sería tal descripción dual en el caso de un puente6,7 de Einstein-Rosen?; es decir, ¿qué estado cuántico en la teoría dual le corresponde a lo que en nuestro espacio-tiempo es un par de agujeros negros conectados internamente? Maldacena mostró6 que la respuesta a esa pregunta involucra estados entrelazados, estrechamente relacionados con lo que sería un par EPR. Ese trabajo de Maldacena de 2001 fue el punto de partida de la línea de investigación que hoy culmina con la propuesta ER=EPR.

    No hace muchos años, en colaboración con James Lindesay, el mismo Leonard Susskind publicó un libro de divulgación en el que se trata de explicar principio holográfico en un lenguaje accesible8. Su libro, tituladoUna introducción a los agujeros negros, información y la teoría de cuerdas: El universo holográfico, es recomendable. Evitando tecnicismos, Lindesay y Susskind logran contar la idea general acerca de cómo la física que ocurre cerca de los agujeros negros puede ser representada por sistemas físicos de menor dimensionalidad. El libro, empero, fue publicado nueve años antes que el artículo de Maldacena y Susskind sobre ER=EPR, por lo que esto último no está discutido allí. De todos modos, el artículo original3 sobre ER=EPR, publicado enFortschritte der Physik en 2013, tiene un estilo retórico amigable, abunda en argumentos heurísticos y requiere mínimos conocimientos teóricos previos, por lo que es la referencia aconsejable para aquellos interesados en entender por qué EPR=ER o, como algunos parafrasean jocosamente, por qué P=1.

     

    Referencias

    1 A. Einstein, B. Podolsky & N. Rosen, "Can quantum-mechanical description of physical reality be considered complete?", Phys. Rev. 47(10) (1935).

    2 A. Einstein & N. Rosen, "The particle problem in the general theory of relativity", Phys. Rev. 48(73) (1935).

    3 J. Maldacena & L. Susskind, “Cool horizons for entangled black holes”, Fortsch. Phys. 61 (2013) 781.

    4 A. Almheiri, D. Marolf, J. Polchinski & J. Sully, “Black holes: complementarity of firewalls?”, JHEP 1302 (2013) 062.

    5 J. Maldacena, “The Large N limit of superconformal field theories and supergravity”, Int. J. Theor. Phys. 38 (1999) 1113, Adv. Theor. Math. Phys. 2 (1998) 231.

    6 J. Maldacena, “Eternal black holes in anti-de Sitter”, JHEP 0304 (2003) 021.

    7 J. Maldacena & L. Maoz, “Wormholes in AdS”, JHEP 0402 (2004) 053.

    8 L. Susskind, “The world as a hologram”, J. Math. Phys. 38 (1995) 6377.

    9 L. Susskind & J. Lindesay, “An introduction to black holes, information and the string theory revolution: The Holographic Universe”, World Scientific Publishing (2005).

    Gaston Giribet es investigador del Centro de Cosmología y Física de Partículas de New York University, Profesor del Departamento de Física FCEyN-UBA, Investigador Principal IFIBA-CONICET. 

  • Maldacena, reconocido nuevamente

    Juan Martín Maldacena ha sido premiado con la Medalla Lorentz, de La Real Academia de las Artes y Ciencias de los Países Bajos. El galardón es por las innovaciones que hizo en las últimas dos décadas a la física teórica. "No lo esperaba", dice pero asegura que este reconocimiento es además para todos sus colegas que trabajan en esta área de la física.

    Maldacena fue estudiante del Departamento de Física de Exactas UBA antes de su paso por el Instituto Balseiro y de su carrera en el exterior del país. La famosa conjetura que postuló a fines de 1997 posee récord de citas en la literatura científica internacional. En este último tiempo, el físico estuvo trabajando “en el entendimiento de la relación entre los agujeros de gusano en el espacio tiempo y el entrelazamiento cuántico. También, en la teleportación cuántica y la transferencia de información a través de estos agujeros de gusano".

    Ante la pregunta de cuáles son las cuestiones abiertas, especialmente en teoría de cuerdas, el físico afirma que el interrogante más importante es “si uno se puede describir el comienzo del universo de forma completa y consistente”. Y además, agrega: "nos preguntamos cómo describir el interior de los agujeros negros y la evolución del exterior en forma cuántica, con la misma teoría”. Del mismo modo, “los experimentos que podemos realizar para comprobar la teoría de cuerdas".

    Por otro lado, Maldacena describe los aportes del recientemente fallecido, Stephen Hawking, a la física teórica y a su área de investigación científica: "su contribución fue haber descubierto que los agujeros negros tienen una temperatura y una entropía; también se dio cuenta que este hecho provocaba un problema de consistencia entre la mecánica cuántica y la gravedad". Estas ideas han llevado a muchos desarrollos teóricos importantes, afirma el físico. Por último, rescata que "Hawking tuvo ideas interesantes sobre el origen del universo". Las suyas propias para develar este mismo misterio fueron reconocidas internacionalmente anoche con el galardón.

  • Recomendado de Gustavo Otero Y Garzón

    El profesor del DF comparte uno de los resultados recientes más importantes en el proyecto ATLAS de La Organización Europea para la Investigación Nuclear (CERN).

    La Colaboración ATLAS del LHC observó la primera evidencia directa de scattering de dos fotones a altas energías. Esta evidencia confirma una de las predicciones más antiguas, pero no observadas hasta el momento, de la electrodinámica cuántica (QED). La interacción de la luz consigo misma es un fenómeno imposible para una teoría clásica y este resultado provee una prueba sensible de nuestro entendimiento de QED.

    Atlas CernDurante décadas la evidencia de este proceso ha sido elusiva hasta que comenzó la segunda etapa de datos del LHC en 2015. Colisiones de iones pesados a altas energías en el LHC proveen un ambiente único para este tipo de estudios. Cuando iones acelerados a altas energías se encuentran en el centro del detector ATLAS, solo unos pocos colisionan y los fotones que emiten rodean pueden interactuar y dispersarse entre sí. Estas interacciones se conocen como "ultra-periféricas".

    Encontrar esta evidencia requirió el desarrollo de un nuevo tipo de selección de eventos. El estado final, dos fotones altamente energéticos en un detector "vacío" representa el caso diametralmente opuesto al de la topología típica de una colisión de núcleos de plomo a altas energías. El éxito de afrontar este desafío demuestra la flexibilidad del sistema de adquisición de ATLAS.

    De los 4 billones de eventos colectados en 2015, ATLAS encontró 13 candidatos de dispersión entre fotones de los cuales 3 son el fondo esperado. El resultado tiene una significancia de 4.4 desviaciones estándar que permiten reportar la primera evidencia directa de este fenómeno.

    Los invito a leer el paper: "Evidence for light-by-light scattering in heavy-ion collisions with the ATLAS detector at the LHC", The ATLAS Collaboration, Nature Physics 13, 852–858 (2017).

    https://www.nature.com/nphys/journal/v13/n9/full/nphys4208.html

    Gustavo Otero Y Garzón es profesor del Departamento de Física de Exactas UBA, Investigador Independiente de CONICET en IFIBA-UBA, Especialista en física de partículas a altas energías y en partículas elementales.

  • Música para soñar

    Dos publicaciones recientes del Laboratorio de sistemas dinámicos de IFIBA-UBA tuvieron repercusiones internacionales dentro y fuera del ámbito académico. No es para menos, todos queremos saber sobre los sueños de los pájaros, entender cómo experimentan su canto mientras duermen y si influye en su aprendizaje.

    Gabriel Mindlin, director del laboratorio y profesor del Departamento de Física cuenta las novedades de una línea de investigación que sigue junto a Alan Bush y Juan Doppler: “En la publicación en la revista PeerJ reportamos actividad espontánea en los músculos vocales de las aves durante el sueño. En ese caso, la característica fundamental fue la variabilidad encontrada, ya que no solo aparecían los gestos motores empleados durante el canto, sino otros que durante el día no se ejecutaban”.

    Los investigadores afirman que esta variabilidad sustancial no es consistente con la actividad nocturna que tienen los pájaros en términos de la consolidación de sus experiencias diurnas; y, reconocen que aunque se desconoce la función de esta activación frecuente en las noches, “puede representar un mecanismo para explorar el espacio motor o servir para generar señales internas de error que ayudan a mantener la alta estereotipia de la canción durante el día”. Los diamantes mandarines son una especie de ave que aprende un canto y lo repite casi idénticamente durante toda su vida.

    En el otro trabajo relevante, difundido a través del sitio bioRxivel, Mindlin y su equipo describen y analizan un experimento, también con diamantes mandarines: “mientras el animal dormía reproducimos grabaciones de su canto diurno y pudimos observar que, en ese caso, se perdía la variabilidad. Es decir,  se inducían los mismos gestos motores empleados durante el día para cantar; afirmamos que lo que medimos en el músculo es un correlato de lo que sucede a nivel neuronal”.

    “El ave no enciende la respuesta inmediatamente cuando escucha el estímulo, sino que responde con cierta probabilidad, a veces sí y otras no,  en momentos específicos del canto. Son instancias que llamamos interruptores. Empleamos como estímulo versiones sintéticas del canto -sílabas- y vimos que estas versiones breves fueron menos exitosas para provocar respuesta neuronal. Sin embargo, cuando obtuvimos una respuesta resultó idéntica a la provocada por su canto verdadero no sintetizado”, dice Mindlin.

    La hipótesis del grupo es que las señales neuronales y los movimientos musculares podrían ser parte de un proceso de aprendizaje. “Creemos que el sueño juega un rol fundamental en las especies que aprenden. Por eso nosotros estamos trabajando en paralelo con otras que no aprenden, así podremos comparar y conocer qué sueña un cerebro que no necesita aprender”, concluye el físico.

  • La máquina de descubrir

    - Comunicación DF -

    En el extremo del segundo piso del pabellón uno, al final de un pasillo muy silencioso, está “Siberia”, un grupo de oficinas que habitan los investigadores Ricardo Piegaia y Gustavo Otero Y Garzón. Desde ese rincón en el sur del mundo están conectados al Gran Colisionador de Hadrones (LHC según sus siglas en francés e inglés), el acelerador de partículas más potente del mundo.

    Los investigadores desarrollan sus actividades dentro de un consorcio internacional, el laboratorio que recrea las condiciones imperantes luego del Big Bang: el CERN. El Centro Europeo de Investigaciones Nucleares es el único responsable en hacer funcionar el acelerador y las universidades deben construir los detectores de partículas, operarlos, analizar los datos y publicar la física que se produce. Argentina es uno de los 37 países que integran el proyecto a través de la UBA y la Universidad de la Plata.

    “Ninguna universidad puede tener un colisionador propio en el sótano o en el techo, aunque hubo una época en que los proyectos fueron nacionales, ahora no podrían concebirse de ese modo, nadie puede hacerlo solo. El laboratorio y la gran máquina exceden las fronteras, por ejemplo, los 27 kilómetros que suma el túnel donde circulan las partículas atraviesa Suiza y Francia. Es el más grande del mundo, aunque hay otros colisionadores, para partículas y energías diferentes”, dice Piegaia, el científico cuyo trabajo en el Observatorio Pierre Auger fue considerado por la revista Physics World como uno de los diez grandes avances en Física de 2017.

    Miles de investigadores de todo el mundo trabajan conectados a la gran red del CERN, aunque los físicos argentinos reconocen que cuando pueden pasar tiempo en las instalaciones del laboratorio en Ginebra logran avances significativos: “Como parte del consorcio tenemos tareas asignadas que debemos cumplir y llevar a cabo; cada grupo, en función del número de miembros que posee le corresponde un tipo de actividades. Por eso, tener la posibilidad de interactuar con quienes trabajamos todos los días, o con el experto que te ayuda a resolver problemas, es una gran ventaja; a veces, sin esa cercanía se hace más difícil. Además, Ginebra es la ciudad más cara de Europa, por lo que la logística es complicada, pero la idea es poder pasar allá el mayor tiempo posible. Nuestros estudiantes de doctorado van como máximo una vez por año para estadías de hasta dos meses, siempre y cuando los recursos lo permitan”.

    Dame precisión te daré partículas

    “El colisionador es una fábrica de partículas, la mejor que hay en este momento. Y, lo logra haciendo desaparecer energía para fabricar masa, a la inversa de un reactor nuclear”, ejemplifica Piegaia y aclara que entre las partículas que aparezcan, esperamos que no sean solo las previstas por el Modelo Estándar, que ya fueron encontradas, sino también aquellas que correspondan a nueva física. “Sin embargo, también buscamos precisión, tratamos de entender la estructura de la materia a distancias cada vez más pequeñas haciendo chocar partículas a mayor energía”.

    Para poder experimentar de manera controlada con altas energías se diseñaron aceleradores, un tipo especial es el ciclotrón -o circular- donde haces de partículas se mueven por la fuerza electromagnética que ejercen los imanes. El primero fue inventado en 1930 por Ernest Lawrence con un costo de 25 dólares; el último y más colosal es el LHC y costó alrededor de diez mil millones de dólares. Es una megamáquina que provee de colisiones de protones a los cuatro detectores situados alrededor del anillo: ALICE, LHCb, CMS y ATLAS. Todos ellos funcionan de un modo similar, aunque sus tecnologías diferentes permiten favorecer algunas medidas concretas sobre otras y, así, lograr evidencias independientes de cualquier nuevo descubrimiento.

    “Cada experimento tiene un propósito predominante, por ejemplo, ALICE (A Large Ion Collider Experiment) busca el estado de la materia que se cree existió en las primeras fracciones de segundo después del Big Bang; se investiga cómo reproducir ese estado original que ya no existe. Por otro lado, LHCb (Large Hadron Collider beauty experiment, donde "beauty" se refiere al quark bottom), se especializa en violación de simetría CP en las desintegraciones de hadrones que contengan dicho quark o la medida de precisión de las fracciones de desintegración -branching ratios-  de algunos procesos extremadamente infrecuentes. Y, tanto ATLAS (A Toroidal LHC Apparatus) como CMS (Compact Muon Solenoid) fueron hechos para explorar un rango de energías más alto, podríamos decir que son dos experimentos que compiten entre sí”, dice Otero.

    Gran parte del trabajo de los investigadores y de los doctorandos se engloba en la medición de precisión, son capaces de explorar entre decenas de decimales en busca de diferencias que pueden parecer sutiles pero no lo son. “En el área de Higgs -ejemplifica Otero- los resultados obtenidos experimentalmente y los predichos por el modelo estándar tienen a veces diferencias por una cuestión estadística y, en el caso de ciertos observables, una medicion de precision se lograría solo si acumulamos datos durante una década más”.

    El detector ATLAS contiene cien millones de canales independientes, cada uno de ellos detecta información de 40 millones de colisiones por segundo, todos los días del año. Los programas que desarrollan para la toma de datos seleccionan automáticamente mil de esos choques por segundo -a través de complejos algoritmos- y el resto de la información se pierde para siempre. “Los eventos que resultaron ser interesantes se guardan en discos rígidos para el análisis detallado, otros programas analizan los datos guardados. Creo que el 95 por ciento del trabajo de un físico experimental de altas energías es desarrollar programas; ese es uno de los grandes desafíos que tenemos,  la masividad de datos genera varios problemas”.

    “El Modelo Estándar predice, por ejemplo, que en un choque protón-protón se puede producir un quark para un lado y un fotón en una dirección diferente, con una cierta frecuencia. Una desviación respecto a esta predicción sería evidencia de la existencia de una partícula X, hasta ahora desconocida. En ese sentido, una de las últimas publicaciones fue la búsqueda de un exceso de quarks+fotones pero obtuvimos resultados negativos, o sea no encontramos evidencia de nueva física. Analizando en detalle los modelos teóricos pudimos afirmar entonces que si existiese X, su masa debería ser superior a una cierta cota MX. Si su masa fuera menor, ¡la hubiésemos observado! Es decir, aunque la búsqueda no tuvo éxito el resultado es preciso y cuantitativo, de ahí la importancia en el desarrollo de técnicas estadísticas refinadas que permitan analizar mejor los datos y correr los límites”, explica Piegaia.

    Otero Y Garzón comenta que sus investigaciones abarcan áreas de nueva física y tecnología específica de los detectores: “en este momento trabajamos en procesos de choque de dos quarks que producirían una partícula mediadora de materia oscura; esto se vería como un exceso de la predicción del Modelo Estándar en eventos con tres jets. Por otro lado, publicamos estudios inherentes al detector, son papers muy técnicos del conjunto de subdetectores, como el calorímetro y su calibración entre una señal y lo que la originó, no es un trabajo trivial, requiere de mucho tiempo. Por ejemplo, DZero es un experimento del Laboratorio Fermilab, la calibración de su calorímetro tardó casi una década en transformarse en una publicación de 150 páginas. Hoy en día, uno de los estudiantes del equipo es editor responsable de la calibración del calorímetro con datos de los últimos tres años”.

    Ante la pregunta de cuándo un hecho es considerado interesante, los físicos ejemplifican con la especialidad del grupo de Buenos Aires: la producción de jets, la señal experimental de quarks y gluones (las partículas intermediarias de la fuerza fuerte, así como los fotones intermediarían el electromagnetismo). Eventos con solo dos jets son muy comunes y solo se guardan unos pocos, salvo que se trate de jets de las más altas energías. Eventos con producción de tres o cuatro jets son más interesantes y se guarda una fracción mayor, mientras que aquellos con más de cuatro jets son muy esporádicos y se guardan en su mayoría pues pueden corresponder a la producción de partículas supersimétricas. En el otro extremo, los eventos monojets resultan los más interesantes, ya que puede tratarse de un fenómeno con materia oscura. Siendo menos entusiastas, reconocen que puede tratarse de neutrinos, pero es necesario guardarlos de todas maneras para investigarlos en detalle.

    “Los detectores funcionan en un régimen que cambia día a día, por lo que las condiciones en que se hicieron hace una década ya no son óptimas, además de la degradación de uso, tienen una vida útil. Para 2024 va a haber un cambio severo en las condiciones de funcionamiento del acelerador que requiere que los detectores se amolden. Entonces hace varios años ya que estamos trabajando en el upgrade de ATLAS. La tecnología va hacia el gigantismo, pero también hay mucho dinero invertido en el desarrollo de tecnologías más eficientes que gigantes”, concluye Piegaia.

     

    Los jets son la manifestación experimental de los quarks y los gluones. Midiendo la dirección y la energía del jet, se conoce la energía del quark o el gluón que lo produjo.

  • La física y los pájaros - Entrevista a Gabriel Mindlin

    Entrevista imperdible al profesor del DF Gabriel Mindlin sobre la biofísica de la fonación y mucho más acerca de la física y los pájaros

    https://www.pagina12.com.ar/89657-la-fisica-y-los-pajaros

  • Luz con campos longitudinales

    - Comunicación -

    En una colaboración teórico-experimental, Guillermo F. Quinteiro experto en temas de materia condensada junto a Christian Schmiegelow, físico experimental del Laboratorio de iones y átomos fríos; y al investigador alemán Ferdinand Schmidt-Kaler recibieron un Editors´ Suggestion en la revistaPhysical Review Letters. La publicación resalta el rol determinante que tienen los campos longitudinales en la interacción entre vórtices ópticos y un ion.

    “Compartimos el interés en óptica singular, que es el estudio de la luz con estructura espacial, es decir, haces espacialmente complejos. A partir de una investigación muy relevante que ellos hicieron en Alemania, y desde áreas diferentes pudimos entender juntos todos los resultados que habían obtenido. Cuando Christian regresó a Argentina al finalizar su postdoctorado, pudimos darle una respuesta completa al experimento”, explica Quinteiro.

    Un ion “atrapado” en el laboratorio, al que iluminaron con luz estructurada y mediante el cual pudieron mostrar cómo los estados electrónicos cambiaban gracias a la interacción con los fotones, dieron origen a la colaboración. Esa interacción entre luz y materia producía cambios electrónicos inesperados en el ion que pudieron explicarse de manera cuantitativa recientemente.

    Por otro lado, Quinteiro considera que la publicación implica revisar algunos conceptos que se dan en todas las aulas: “Comúnmente, en la carrera de física nos enseñan que la luz se propaga en el espacio en una dirección dada. Y que sus campos eléctricos y magnéticos son vectores que se consideran perpendiculares a esa dirección de propagación. Esta pintura es una aproximación que se llama "paraxial", suele explicar muy bien numerosos fenómenos en óptica. Sin embargo, nosotros pudimos demostrar que esta aproximación tiene sus limitaciones para describir la interacción de la luz con un ion”.

    Si graficamos la luz, por ejemplo, como si fuera una sábana estirada que se mueve como un frente homogéneo lo hacemos en términos de una onda plana. Pero la luz tiene estructura espacial, no es homogénea en ese plano aunque siga una dirección de propagación, una línea preferencial: “El vórtice óptico tiene lo que se llama la singularidad sobre el eje, una línea donde no pueden definirse algunas propiedades. Este tipo de luz estructurada es espacialmente inhomogénea y tiene una singularidad de fase que está relacionada con el momento angular orbital y con la torsión de la luz”.

    Los vórtices ópticos tienen un momento angular orbital, es decir, poseen un valor expresado en un número entero que puede controlarse y eso es potencialmente importante en aplicaciones como tecnologías de información cuántica, nanofotónica y espintrónica. En este sentido, “así como los campos magnéticos pueden ser muy intensos, los campos longitudinales son especialmente importantes en óptica singular y es importante prestarles atención, porque van a jugar un papel relevante en muchas de las aplicaciones donde se utilice luz estructurada y materia”, concluye el investigador.

    Guillermo F. Quinteiro formó, junto a otros investigadores, un nuevo grupo de estudio sobre el tema e invita a sus colegas y a estudiantes de doctorado interesados a sumarse a las reuniones del grupo de óptica singular.

    Twisted-Light–Ion Interaction: The Role of Longitudinal Fields

    DOI:https://doi.org/10.1103/PhysRevLett.119.253203

     

  • De Virgilio a Feymann, la mínima acción

    - Comunicación -

    En un coloquio extraordinario del DF, el físico Alberto Rojo contó la investigación detrás de su nuevo libro,El principio de mínima acción. Historia y física.El trabajo fue escrito junto con el matemático Anthony Bloch durante varios años y saldrá al mercado el próximo enero. “Es un libro de divulgación para pares, con pornografía matemática explícita”, bromea.

     

    Rojo se doctoró en el Instituto Balseiro, además es es escritor, popularizador de las ciencias y músico:  “Es un tributo a mi viejo que era filósofo y le gustaba leer sobre física. Él tenía en su biblioteca el libroPrincipia de Newton,  yo una vez quise leerlo pero mi padre me dijo que no se entendía, que tenía una geometría muy fea. Eso quedó en mí como un desafío, por lo que me di el gusto de escribir un capítulo sobre elPincipia, una especie de visita guiada sobre cómo Newton deduce que las órbitas son elípticas y a partir de eso cómo la fuerza va como la inversa del cuadrado de la distancia”.

    Después de reeditar tres vecesBorges y la física cuántica,el autor cuenta cómo fue esta nueva experiencia editorial compartida con Blosch. El disparador parece ser la famosa frase de Aristóteles,  la naturaleza no hace nada en vano.“A la largo de la historia de la física muchos asemejan esta idea con la de que la naturaleza optimiza, sus caminos, relata Rojo y confiesa: “yo traté, casi en vano, de descifrar en qué momento ocurre el salto entre la idea en los Tratados griegos hacia la idea del mínimo, pero no está muy claro cuándo sucede”.

    Durante una hora y media Alberto Rojo relató cómo buscó las fuentes bibliográficas, los escritos, las cartas y lospapers sobre la mínima acción. En el libro las historias se van sucediendo unas a otras, desde la Antigüedad hasta el surgimiento de la mecánica cuántica. Así, en lo que él llama la prehistoria del asunto -matemáticamente hablando- está la leyenda de la reina Dido en La Eneida. Esta mujer que funda Cartago debe ocupar la mayor área posible, señalando el límite de su territorio con tiras de cuero taurino. Lo hace marcando un perímetro fijo en forma de círculo.

    “Muchas de las ideas sobre el principio de mínima acción son desarrolladas antes del cálculo diferencial, como las demostraciones de Zenodoro al discretizar figuras geométricas; o cuando Herón de Alejandría quiere conocer cuál es el camino que sigue un rayo de luz al reflejarse en un espejo; así como Galileo Galilei en 1638 cuando discute la caída de los cuerpos por un plano inclinado con un experimento musical y teóricamente se apoya en la simplicidad para explicar la aceleración uniforme”, enumera el físico.

    Según los autores esta historia tiene un personaje central y ese es Pierre Louis Maupertuis: “aunque nadie conozca muy bien de dónde sacó sus ideas respecto de la mínima acción” -aclara Rojo- el francés afirmó quela naturaleza en la producción de sus efectos lo hace siempre por los medios más simples. “Cuando uno lee a Schrödinger o a de Broglie advierte que se apoyan mucho en Maupertuis, citan el principio de mínima acción, la analogía óptico-mecánica, el isomorfismo entre las trayectorias, es decir, que es una idea que estaba muy viva para ellos”, ilustra.

    Por último, el libro llega al siglo XX:  “Richard Feynman generaliza la idea de mínima acción en términos de caminos, se puede interpretar que en física cuántica una partícula sigue todos los caminos posibles para ir de un punto a otro”, sintetiza Rojo.

    Enlace al video de la charla

DF es docencia, investigación y popularización de la ciencia.