Mapeando el universo

Durante mucho tiempo, los mapas del mundo han llevado la marca de espacios vírgenes, territorios inexplorados en el centro de los continentes o más allá de los océanos. Hoy, todos los rincones del mundo han sido mapeados. Todo lo que queda es encuestar … El resto del universo ! La tarea parece desproporcionada, pero gracias al aumento exponencial en el cálculo de datos y las capacidades de almacenamiento, ahora está a nuestro alcance. La cosmografía, una disciplina destinada a mapear el Universo en su conjunto, busca hoy responder a las principales preguntas de la cosmología: cuál es la naturaleza del contenido del Universo y cómo se ha organizado este contenido ? Para hacer esto, tenemos algunos testigos privilegiados (fotones, neutrinos, partículas de muy alta energía) que han viajado por el Universo. El desafío es interpretar sus mensajes.

En la década de 1950, Charles Donald Shane y Carl Wirtanen fueron los primeros en tratar de formar un mapa cosmológico. Pasaron diez años enumerando las coordenadas proyectadas en el cielo por casi un millón de galaxias. Este trabajo fue extremadamente laborioso, porque era necesario medir la posición exacta de cada uno de ellos en placas fotográficas argentinas. Afortunadamente, no fue en vano: este catálogo jugó un papel crucial en la formulación de los primeros modelos de entrenamiento para las principales estructuras del Universo.

De hecho, parece que las galaxias no se distribuyen uniformemente en el espacio, sino que constituyen, a gran escala, grupos, incluso supercúmulos. Inicialmente, explicamos la existencia de estas grandes estructuras por la presencia de turbulencias hipotéticas. El enfoque cambió en los años setenta y ochenta. Apareció un nuevo marco teórico, donde la gravitación actuó sola: el llamado modelo jerárquico. Postula que, incluso en un universo casi homogéneo, una zona localmente más densa (un bulto) tiende a colapsar bajo el efecto de su propio peso, o incluso a atraer la materia circundante. Con el tiempo, las fluctuaciones de densidad más pequeñas se amplifican, ciertas regiones logran superar la dilución causada por la expansión universal para, por el contrario, concentrarse.

El modelo jerárquico estaba dividido, como el resto del mundo en ese momento ! – en dos escuelas: rusa y estadounidense, personificada respectivamente por los astrofísicos Yakov Zeldovich y Jim Peebles. En el primero, las fluctuaciones a mayor escala primero se condensan, antes de fragmentarse en elementos más pequeños. En el segundo, las galaxias se forman primero, antes de que su distribución ligeramente heterogénea las empuje a reunirse en grupos de galaxias cada vez más marcadas.

Las dos escuelas divergieron en otro punto: de dónde vienen las heterogeneidades de densidad inicial ? Viatcheslav Mukhanov y Alan Guth presentaron una hipótesis en 1981, en el contexto de lo que los astrónomos llaman la hipótesis de la inflación, según la cual el joven Universo experimentó brevemente una fase de expansión exponencial. Los dos astrofísicos mostraron de forma independiente que esta fase habría resultado en la impresión de ligeras fluctuaciones de densidad al gas primordial en todas las escalas.

El origen del desacuerdo entre rusos y estadounidenses a principios de la década de 1980 se basó en diferentes suposiciones sobre el contenido del Universo. Todos consideraron que la masa faltante que se sospechaba que había existido durante varias décadas se debió a la existencia de grandes cantidades de material invisible, conocido como negro por esto. Para el primero, se debió al hecho de que el neutrino, una partícula elemental que interactúa muy poco con la materia, puede haber tenido una masa. Esta masa tenía que ser baja, por lo que aún no se había detectado, pero suficiente para explicar las observaciones si se tienen en cuenta las enormes cantidades de neutrinos que bañarían el Universo (hoy sabemos que esta masa existe, pero que contribuye muy poco al del Universo).

Materia negra: caliente o fría ?

Se dice que esta forma de materia oscura es caliente porque las partículas que lo constituyen son muy ligeras, se mueven muy rápidamente (a velocidades relativistas). Este hormigueo de partículas ultrarrápidas tiende a borrar pequeños bultos en el Universo primitivo. Por lo tanto, los rusos imaginaron un espectro de poder, la curva que da la amplitud de las fluctuaciones según su tamaño, más bien «rojo», por analogía con el espectro de luz: largas longitudes, las fluctuaciones de densidad fueron más marcadas que las pequeñas, y la formación de las estructuras del Universo tuvo que comenzar con los supercúmulos (Es el modelo de arriba hacia abajo).

Los estadounidenses, por el contrario, se inclinaron más bien por una materia oscura «fría», compuesta de partículas muy pesadas y más lentas. Había varias hipótesis disponibles: o era materia ordinaria, pero que no brillaba (una multitud de estrellas oscuras del tamaño de planetas), o neutrinos si su masa había sido suficiente, o partículas aún desconocidas. Esta materia oscura había sido invocada por primera vez en la década de 1940 por el astrofísico búlgaro Fritz Zwicky como un componente ad hoc para explicar las velocidades de desplazamiento de las galaxias dentro de los grupos, luego por la astrónoma holandesa Louise Volders, quien demostró que las galaxias espirales giran demasiado rápido sobre sí mismas para ser estables, a menos que seas más masivo de lo que supusiste.

La materia oscura fría tiende, como la materia ordinaria, a formar fácilmente bultos densos. Hoy, se cree que se distribuye más o menos como la materia visible (concentrada en grupos y en galaxias mismas): la materia visible se concentraría en el fondo de los pozos potenciales de materia oscura. Por lo tanto, al estudiar la distribución de la materia visible, se obtendría la distribución aproximada de la materia oscura.

En la hipótesis de la materia oscura fría, las fluctuaciones a pequeña escala deberían haber sido de gran importancia y haberse condensado primero. Estos bultos aislados por su contracción habrían formado galaxias enanas cuya aglutinación posterior habría dado lugar a galaxias gigantes, luego a grupos (lo que se llama el escenario ascendente).

Estas dos alternativas al modelo jerárquico dan resultados ligeramente diferentes. En el escenario estadounidense, el material, a gran escala, debería dividirse en nodos conectados por filamentos largos. En el modelo de arriba hacia abajo de los rusos, forma preferentemente grandes paredes que abarcan espacios vacíos. Por lo tanto, se volvió tentador probar estas hipótesis comparándolas con las observaciones.

Los astrónomos se apresuraron a calcular qué estadísticos llaman la función de correlación de las galaxias en los modelos y trataron de hacerlo en las observaciones. Esta función básicamente da la probabilidad de

una galaxia para tener un vecino a una distancia dada: es más alta a las distancias correspondientes al tamaño de las zonas donde las galaxias están cerca unas de otras y mínima para las escalas correspondientes al tamaño de los espacios vacíos. Estos cálculos se realizaron utilizando desarrollos perturbadores aprendidos (a los que la escuela francesa contribuyó mucho) o desde las primeras simulaciones digitales a gran escala. Estas estimaciones estadísticas iniciales mostraron que era posible vincularlas con los diferentes parámetros que describen la evolución del Universo en su conjunto. Vimos una de estas relaciones cuando hablamos sobre el hecho de que la historia y la forma de las grandes estructuras dependen de suposiciones sobre la naturaleza de la materia oscura. También dependen de la diferencia entre la fuerza de la gravedad, que tiende a hacer que colapsen sobre sí mismos, y la expansión del Universo que tiende, por el contrario, a hacerlos desaparecer.

Este trabajo se convirtió rápidamente en una industria real y los avances teóricos en esta área, por lo tanto, siguieron los avances observacionales. Los telescopios crecieron en diámetro (de cuatro a diez metros) y estaban equipados con cámaras cada vez más sensibles. Aparecen espectrómetros multiplex, donde las fibras ópticas extraen luz en diferentes puntos de la misma imagen para realizar repentinamente el espectro de cada una de las galaxias presentes allí. El desplazamiento rojo del espectro de luz de una galaxia depende de la distancia a la que se encuentra (ver recuadro en la página 68). Ahora podríamos establecer simultáneamente las tres coordenadas (dos en el cielo, una en profundidad) de una gran cantidad de galaxias, mientras que los avances en TI autorizaron la automatización de la adquisición y el procesamiento de datos.

Primeras lecturas tridimensionales

En 1985, Valérie de Lapparent, del Institut d’astrophysics en París, presentó un primer catálogo tridimensional que comprende alrededor de 1.100 galaxias y sobre el cual, por primera vez, se distinguen grandes estructuras. Además de la confirmación cualitativa esperada por los teóricos, este primer mapa permite comparar la forma de la función de correlación medida con la predicha por la teoría de la materia oscura fría.

Sin embargo, estos son otros resultados que cortan definitivamente la controversia sobre la naturaleza «caliente» o «fría» de esta materia oscura. En 1992, el satélite cobe produjo el primer mapa cósmico de fondo de microondas que constituye una imagen del Universo, ya que fue 400,000 años después del Big Bang, incluso antes de la aparición de galaxias. Las fluctuaciones infames aparecieron en este mapa cuyo espectro de potencia no es compatible con el modelo de materia oscura caliente. Sin embargo, lejos de estar de acuerdo, este período en la historia de la cosmografía fue un poco agitado. Cuando uno comenzó a interpretar a través del modelo jerárquico la distribución de la materia en el Universo, cada nuevo resultado parecía contradecir el anterior. Poco después de la mazorca, el satélite de iras estableció en infrarrojo cercano un catálogo de fuentes puntuales extragalácticas (galaxias distantes) donde se realiza un primer análisis estadístico de la distribución de grandes estructuras en un campo muy amplio. Casi al mismo tiempo, el análisis automático de 185 placas fotográficas proporciona un catálogo bidimensional (proyectado en el cielo) de casi tres millones de fuentes extragalácticas. Se muestra que los datos son incompatibles con un Universo plano dominado por materia oscura fría, el modelo estándar del momento, como parece confirmado por cobe -, a menos que la constante cosmológica se reintroduzca en este modelo (Una fuerza repelente misteriosa) anteriormente abandonado por Einstein, a lo que la mayoría de los astrónomos son reacios.

Cada nueva campaña de observación condujo a valores contradictorios o a la introducción de parámetros adicionales en los modelos. Ciertas medidas relacionadas con la presencia de grandes muros incluso parecían contradecir el principio básico de la cosmología, a saber, el hecho de que el Universo es homogéneo e isotrópico a gran escala ! Uno de los problemas era, por supuesto, que los métodos de análisis eran de naturaleza estadística, ellos requirieron, según la expresión de los institutos de encuestas, «muestras representativas», El análisis de volúmenes excesivamente pequeños del Universo que pueden hacernos tomar por generalidad lo que es solo un accidente.

El primer catálogo extendido de cambios espectrales (que es una medida de profundidad en la bóveda celestial) se formó a mediados de la década de 1990 con la compilación de la encuesta Las Campanas (lcrs), llamada así por un sitio de observación chilena. Es la primera vez que se utilizan los espectrógrafos multiplex ya mencionados, junto con las cámaras digitales. Esta declaración muestra que el tamaño máximo de las estructuras es limitado y que, por lo tanto, finalmente exploramos escalas suficientemente grandes para permitir la medición estadística de sus propiedades. Esta confirmación de la teoría pone fin a la hipótesis de un Universo fractal, para el cual no se puede calcular la densidad promedio. El Universo es estadísticamente uniforme a gran escala (muy).

Un segundo resultado cayó en 1998, cuando el estudio de supernovas distantes (explosiones de estrellas lo suficientemente brillantes como para ser visibles a distancias cosmológicas) revela que la expansión del Universo se está acelerando. Para explicarlo, los astrónomos finalmente se resignan a reintroducir en el modelo la constante cosmológica, ahora llamada «energía oscura». Teniendo en cuenta su efecto en el modelo jerárquico, finalmente ha permitido arreglar lo que hoy se llama el modelo concordante: la cosmología observacional entra en una fase de madurez donde las nuevas experiencias confirman y refinan las medidas anteriores.

De repente, el programa clave del telescopio espacial confirmó en 2000 el valor de la constante del Hubble (que mide la velocidad actual de expansión del Universo a partir de estimaciones de distancias en el grupo local). Los globos de sonda boomerang y maxima resaltan el tamaño aparente de las fluctuaciones más marcadas en el fondo de la radiación cosmológica. Este resultado sugiere que la imagen de estos bultos primordiales no ha sido distorsionada por la geometría del espacio y que nuestro Universo es probablemente plano. Según la relatividad general, esto significa que su densidad es cercana a cierto valor crítico. La materia ordinaria y la materia oscura están lejos de alcanzarla. Falta una gran cantidad de masa, que por lo tanto debe atribuirse a un misterioso tercer componente … cuya contribución es precisamente la de la energía oscura introducida para explicar la aceleración cósmica.

Tres años después, el satélite wmap amplía los resultados de la mazorca y obtiene un mapa de muy alta resolución de las fluctuaciones de este fondo difuso. Su análisis confirma este resultado una vez más y confirma el modelo concordante del Big Bang: un universo compuesto por un tercio de materia oscura fría y por dos tercios de energía oscura (El material y la radiación con los que estamos familiarizados es solo el cinco por ciento del total).

Mientras tanto, el estudio fotométrico de 2 masas ha obtenido un mapa de todo el cielo infrarrojo que, debido a la relativa transparencia de nuestra galaxia en estas longitudes de onda, también proporciona información sobre las principales estructuras del Universo. Al mismo tiempo, a principios de la década de 2000, dos encuestas espectroscópicas muy grandes (es decir, recordemos, en «profundidad») dan sus primeros resultados. El equipo de «campo de dos grados» (campo de 2 grados o 2dF) mide 400 espectros de galaxias por imagen y publica 250,000 cambios espectrales de galaxias. Un segundo «censo celestial digital», el Sloan Digital Sky Survey (sdss), que mide 600 espectros por pose, finalmente compila casi 800,000. Esta información detallada va acompañada de 200 millones de posiciones astrométricas en el cielo. Hay un número significativo de cuásares (núcleos braxy tan activos que están visibles a miles de millones de años luz de distancia), gracias a los cuales se prueba el Universo a gran profundidad.

El análisis de estas encuestas ahora permite una medición muy precisa del espectro de potencia de la distribución de la materia en el Universo. También permite una estimación muy fina de lo que los astrónomos llaman «sesgo»: la relación entre la masa de estructuras deducida de su brillo y la que se calcula a partir de sus movimientos. En otras palabras, llevamos a cabo una medida independiente de la contribución de la materia oscura a estas estructuras. Los datos también nos informan sobre la curvatura del Universo y, por lo tanto, su densidad, de la cual extraemos, después de la deducción de la materia oscura, una nueva medida de la cantidad de energía oscura que contiene. Cada vez, los resultados son consistentes con las estimaciones anteriores.

También hemos encontrado en la distribución a gran escala «corriente» de galaxias el rastro de las ondas acústicas primordiales que también son responsables de los bultos del fondo difuso. Esto refuerza nuestra idea de que ahora entendemos cómo las fluctuaciones primitivas han dado lugar a las grandes estructuras que llenan el Universo.

Los astrónomos no tienen la intención de detenerse en un camino tan bueno. Se están realizando nuevas encuestas, cuyo objetivo es hundirse aún más en el bosque del Universo observable: encuestas europeas vvds y cfhtls, profundidades y bienes estadounidenses, y colaboración internacional en el cosmos. El objetivo de este último es observar en diferentes longitudes de onda (desde la radio de rayos X, pasando por lo visible e infrarrojo) dos millones de objetos contenidos en la misma región de dos grados cuadrados en el cielo usando una docena de instrumentos basados en el suelo o en espacio. Esperamos simplemente estimar las distancias de los diferentes objetos comparando su brillo en estas diferentes longitudes de onda, lo que evitará pasar por la técnica de unión de la espectroscopía y nos permitirá sondear repentinamente volúmenes de espacio mucho más grandes. Usando estos datos, un equipo internacional ya ha reconstruido la distribución tridimensional de la materia oscura (y no la luz de las galaxias). Por primera vez, las observaciones trazan la geometría a gran escala del componente ad hoc introducido en la década de 1980.

El próximo lanzamiento del sucesor del telescopio Hubble, el telescopio espacial James Webb, debería proporcionarnos un instrumento capaz de continuar identificando las primeras galaxias en el infrarrojo. Finalmente, en el futuro cercano, exploraremos las grandes estructuras del Universo en un momento que incluso puede preceder a la formación de las primeras galaxias ! Para esto, esperamos la puesta en marcha de las inmensas redes de radiotelescopios como lofar, luego ska. Cuando se completen tales encuestas, el mapeo del Universo observable llegará a su fin …

Nuestra visión de la distribución de galaxias en el Universo ha cambiado notablemente en los últimos 30 años. Imaginamos galaxias aisladas esparcidas al azar para descubrir que son solo los componentes de una red casi regular de filamentos y paredes que cruzan áreas grandes, casi vacías. Gracias a la mayor eficiencia de las mediciones de cambio espectral y la automatización del procesamiento de datos, no solo hemos comenzado a mapear el Universo a gran escala, sino que también caracterizamos estadísticamente muchas de sus propiedades. Al mismo tiempo, la rápida mejora en las simulaciones digitales permite una confrontación entre estas observaciones y modelos teóricos.

En los últimos años, los astrofísicos finalmente han acordado un nuevo modelo en la historia del Universo. El modelo jerárquico desempeñó un papel esencial en la obtención de esta coherencia y la comprensión del mecanismo para las estructuras de entrenamiento. El único problema es que contiene dos ingredientes: materia oscura y energía oscura, que representan el 95 por ciento del balance de masa del cosmos y que ignoramos… casi todo ! Una pequeña mirada hacia atrás muestra que la cosmología es sacudida por una revolución cada diez años más o menos. Como el último tuvo lugar en 1998 …

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *