La inteligencia artificial proporciona una nueva manera de medir la cantidad de materia oscura en grandes cúmulos de galaxias.

La inteligencia artificial y particularmente el aprendizaje automático facilita que una máquina pueda realizar predicciones a partir del estudio de grandes cantidades de datos. De esta forma, los ordenadores pueden realizar tareas complejas como reconocer objetos en imágenes o jugar al ajedrez. Recientemente, el aprendizaje automático ha dado lugar a  múltiples aplicaciones en diferentes campos de la industria e investigación. No sólo es útil para acelerar el análisis de enormes cantidades de datos, también trae consigo nuevos descubrimientos. En particular, los  métodos de inteligencia artificial  para el análisis de datos astrofísicos están siendo empleados cada vez de forma más habitual  en el procesado de imágenes astronómicas, Dado que los objetos astrofísicos solo podemos detectarlos a partir de la radiación electromagnética que emiten  el gas y las estrellas en diferentes frecuencias, desde rayos gamma a ondas de radio,  la  información  que podemos derivar es solo de la parte de la materia que componen estos objetos que emite luz. Sin embargo,  cuanto mayor es el objeto astronómico, su contenido total de materia más está dominado por la llamada materia oscura, que no emite luz.  Este es el caso de los objetos más masivos del Universo como son los llamados cúmulos de galaxias. Son asociaciones de centenares o miles de galaxias que están unidas  gravitacionalmente, pero que la materia total   que genera este campo gravitatorio común está formado en  más  del 85%  por una componente  de naturaleza desconocida todavía que denominamos materia oscura.   Las medidas de la materia total que  contiene estos objetos   se realiza a partir de las observaciones  de la emisión en rayos X del gas intra cumular, o mediante la medida de las distorsiones del espectro de frecuencias de  los fotones de la radiación de fondo cósmica cuando atraviesa el  gas caliente del cúmulo en su recorrido hacia nuestros radiotelescopios. En ambos casos, de las imágenes bidimensionales que recibimos con nuestros instrumentos hay que aplicar ciertas hipótesis teóricas del estado del gas del cúmulo para poder derivar la masa total que contiene.   La única forma que tenemos para poder establecer estas relaciones teóricas entre la emisión del gas y la masa es a partir de simulaciones numéricas  que  intentan reproducir la formación de estos objetos y que modelan las complejas relaciones existentes entre las diversas componentes del cúmulo: gas, estrellas, supernovas, agujeros negros y materia oscura.

En un estudio recientemente publicado en la revista Nature Astronomy (https://www.nature.com/articles/s41550-022-01784-y), liderado por miembros del grupo de Astrofísica de la Universidad Autónoma de Madrid, en colaboración con investigadores de la  Universidad de Edimburgo, MIT (EE.UU),  Universidad de la Sapienza (Roma) y  con asesoramiento de expertos de la empresa  EURA NOVA (Bélgica),  especializada en técnicas de aprendizaje automático,   ha sido posible estimar, por primera vez, mediante técnicas de inteligencia artificial, el contenido de materia total de un conjunto amplio de cúmulos de galaxias en todo el Universo observados por la misión espacial Planck de la ESA  en el rango de las microondas.  El algoritmo de aprendizaje automático está basado en redes neuronales convolucionales, un modelo revolucionario desarrollado para el procesado automático  de imágenes.  EL procedimiento consisten en  comprimir la información contenida en las imágenes  de modo que pueda ser luego fácilmente  comparada con alguna propiedad interna de la misma. En el caso que nos ocupa, sería la masa total del cúmulo que ocupa la imagen.  Para poder entrenar este algoritmo para el caso particular   de cúmulos de galaxias,  ha sido necesario generar casi 200 mil imágenes  equivalentes a cómo  observaría el satélite Planck  un conjunto de cúmulos simulados numéricamente.  Estas imágenes sintéticas fueron obtenidas a partir de  los resultados de las simulaciones numéricas pertenecientes al proyecto  internacional “The THREE HUNDRED” (https://the300-project.org/) líderado también por los  investigadores de la UAM.

Una vez que la red convolucional ha sido entrenada, se le aplicó a  más de 1000 imágenes reales  de cúmulos de galaxias observados por el   Satélite Planck, dando como resultado la estimación de la masa total del objeto, de acuerdo a lo que el algoritmo ha aprendido de las simulaciones, pero  en este caso, libres de posibles sesgos debido a las hipótesis  teóricas que se asumen en estudios previos. 

El trabajo ha sido mayoritariamente realizado por Daniel de Andrés, profesor ayudante no doctor  del departamento de Física Teórica de la UAM.  El   Dr. Weiguang Cui, coautor del trabajo, afirma que los resultados obtenidos son muy excitantes y que la inteligencia artificial es una herramienta que nos ayudará  a entender  las complejas relaciones entre las diferentes componentes de materia que pueblan el  universo.


Machine learning is a novel domain which uses artificial intelligence (AI) to make predictions with data. Artificial intelligence means teaching computers to learn to perform complex tasks, such as recognizing objects from pictures and playing chess. A lot of applications of ML appeared in many different fields of industry and research in recent years. It not only accelerates the process of efficiently dealing with a great amount of data but also brings new methods and new findings. An international group of people which includes experts in astronomy research from Universidad Autonoma de Madrid (Spain), University of Edinburgh (UK), MIT, Sapienza University (Italy) and experts in machine learning models from the Euranova company (Belgium), have started a collaboration to provide new ways to infer the mass of clusters of galaxies from multiwavelength images. Recently, they focused on accurate estimates of the mass of galaxy clusters from the Planck satellite microwave images. This study is published in the latest Nature Astronomy issuehttps://www.nature.com/articles/s41550-022-01784-y 

 Galaxy clusters are the most massive object that ever formed in our universe, thus precisely measuring their masses has very important meanings for many different astronomy studies. While to get its mass from the observed images, astronomers have to first process the image, such as excluding fore/back-ground objects, and removing the noises; then, different assumptions have to be made to derive the mass from binned image quantities, such as profiles. These assumptions normally oversimplify the state of the real cluster, therefore, the mass derived with such methods doesn’t agree with their true mass. This difference is referred to as bias. Furthermore, the whole process is very time-consuming and the clusters have been handled one by one.

The machine learning method proposed by this group overcomes all these problems and can directly get the cluster mass from observed images. The machine learning model is based on one type of deep learning algorithm –  the Convolutional Neural Networks (CNN), which can get the most important features of an image to connect with a defined quantity. A perfect tool for this task. However, this involves training the model with almost 200 thousand images from numerical simulations of galaxy clusters, for which the group used the results from The THREE HUNDRED project (https://the300-project.org/), hosted in UAM. They verified the cluster mass from the machine learning model has no bias and has a very small scatter around the true cluster mass. Applying this model to the images observed by the Planck satellite, they provided cluster masses of over 1000 galaxy clusters that are not affected by usual observational assumptions. 

This work was mostly done by a PhD student Daniel de Andres from UAM. This paper’s co-leading author, Dr Weiguang Cui commented on the results as very exciting, and he further mentioned that ML is a useful tool which will help us understand our Universe.

Compartir:

Un comentario

Deja un comentario