logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Esto que estás viendo es la primera imagen capturada de un agujero negro.
Ahora imagina, imagínate que te tuvieras que enfrentar a la tarea de obtener una
imagen de un objeto tan extraño como es la de un agujero negro, del que no exista
una imagen de referencia previa y para la cual se requieren unos instrumentos de
medición que en lo práctico no tenemos. Una tarea que te va a obligar a
desarrollar técnicas ingeniosas combinando conocimientos y esfuerzos de
áreas tan dispares como sería el campo de la informática
y el de la física.
No, no, en serio, ¿cómo la obtenemos?
Ah, vale. Primero tenéis que entender el problema.
Veréis, cuando una onda como la luz pasa por la apertura de un telescopio
interactúa con sus bordes, se difracta. Esto genera otro grupo de ondas que se
mezclan con la original y, a efectos prácticos, hace que la imagen se
difumine. Uno puede arreglarlo aumentando el tamaño de la apertura, es decir,
haciendo el telescopio más grande. Por eso, cuanto más grande es el telescopio, más
resolución tienes y más lejos puedes ver decentemente. El problema es que las
ondas con las que se ha medido el agujero negro son enormes. Tanto que
aunque tengas una buena apertura, los efectos de difracción les siguen
afectando muchísimo, lo que implica fotos de resolución nula. De hecho, el cálculo
es que para resolver la forma de un agujero negro como M87 sería necesario
construir un telescopio con una apertura de escala planetaria. Y eso es
exactamente lo que han hecho la gente del Event Horizon Telescope. No, no se han
aliado con Darth Vader. Lo que han hecho es utilizar una técnica llamada
interferometría astronómica. Con ella se ha conseguido resolver la superficie de
algunas estrellas cercanas. La idea es utilizar radiotelescopios por todo el
mundo para que conjuntamente actúen como un telescopio mucho más grande, del
tamaño de la Tierra, sintetizando una apertura mayor.
Problema. Así no estamos capturando las ondas de radio con toda la superficie de
la Tierra, solo desde ciertos lugares. Eso quiere decir que aunque estamos
fotografiando el agujero negro a máxima resolución, no nos estamos quedando con
toda la información. Toca después aplicar muchísimas técnicas para
reconstruir algunas de las partes que faltan de la imagen. Hoy vamos a hablar
sobre ellas. Espera, espera, espera, y no vamos a ser menciona como este
telescopio virtual de tamaños sin precedentes, conformado por antenas
distribuidas a lo largo de todo el mundo. Capturó señales que fueron
sincronizados haciendo uso de relojes atómicos, generando al día 350 terabytes
de mediciones y llegando a alcanzar un total de cinco petabytes de datos,
almacenados en discos duros de alto rendimiento rellenos de helio y
trasladados desde todos los lugares del mundo en avión para ser procesados en
centros de datos donde... No. Ok. Alright. En cualquier caso, todo esto está
publicado en el paper número 3 de la serie de 6Paper que fueron publicados la
semana pasada tras el evento. Sin embargo, aquí en lo que nos vamos a centrar es en
el contenido del paper número 4, el que explica cómo es el proceso de
reconstruir la imagen. Un proceso que comienza con la transformada de Fourier.
Básicamente, cualquier foto puede ser descompuesta en unas ondulaciones base
que la forman. Es algo similar a lo que expliqué en mi vídeo con Jaime sobre la
composición de las notas musicales, donde una de ellas podía ser descompuesta en
las frecuencias que acomponían. En la imagen, las ondulaciones más grandes marcan
los trazos más generales de la foto, mientras que las ondulaciones más
pequeñas marcan los detalles. Si quisiéramos hacer el proceso inverso y
de un cierto mapa de ondulaciones quisiéramos conocer qué imagen forman
juntas, aplicaríamos la operación contraria, la transformada inversa de
Fourier. La transformada de Fourier descompone una imagen en sus ondulaciones
y la transformada inversa la vuelve a recomponer. Cada par de antenas captura
una de ellas. Cuantas más antenas hagas interferir, más ondulaciones base
añadirás a la imagen y más clara estará. La rotación del planeta también ayuda
con esto. Sin embargo, no tenemos infinitas antenas, así que sólo podemos
conseguir unas pocas de estas componentes. Como veis, si intentamos reconstruir
nuestra imagen con sólo estas muestras, el resultado que obtenemos es bastante
pobre. Un resultado con múltiples interpretaciones. ¿Qué aparece en esta
imagen? ¿Son dos manchas? ¿El monstruo del lago en es? Como ven, infinitas
opciones, de hecho. Toca hacer algo. Para esto encontramos dos planteamientos
diferentes en el proceso de reconstruir las imágenes. Por un lado, podemos optar
por la opción de, para las mediciones tomadas de nuestro agujero negro y
aplicando la transformada inversa de Fourier, obtener una imagen muy
deficiente, que nos preocuparemos de ir mejorando poco a poco con diferentes
técnicas. Esto es la forma más tradicional de
afrontar este problema, conociéndose como técnicas de modelado inverso. Dentro
de este tipo de técnicas, la más utilizada es el conocido algoritmo CLEAN,
que es el que tradicionalmente se ha venido utilizando en interferometría. La
lógica es que si tú sabes que tu telescopio va a alterar a un punto de
luz que observes de la siguiente manera, a causa de la difracción, lo que puedes
hacer es, iterativamente, ir localizando aquellos puntos de mayor intensidad
lumínica en tu imagen e ir limpiando el patrón de dispersión que habías
identificado. Esta es una operación conocida como de convolución. Y sí, para
los apasionados del machine learning del canal, efectivamente, esta operación es
la operación inversa a la que se producen en las redes neuronales
convolucionales, aunque eso no significa que aquí las estemos aplicando. Por el
contrario, otra forma de atacar a este problema sería al revés, donde la
reconstrucción se plantea como un problema de optimización en el que se
buscan aquellas imágenes que cumplan dos objetivos, ser similares al tipo de
imágenes que queremos generar y que al mismo tiempo se ajusten a las mediciones
que hemos realizado. Un enfoque inspirado en la estadística vallesiana y que en
este caso viene implementado bajo un método denominado regularized maximum
likelihood, o RML, a partir de ahora. Como se puede comprobar, unos métodos con
bastantes similitudes con los métodos más tradicionales de machine learning.
Y a lo mejor llegados a este punto, te estás preguntando algo. Pero esperad un
momento, eso no se parece a la técnica que la estudiante Katie Bowman mostró en
su charla TED en 2016. A ver, primero, no es estudiante de grado, es doctora, doctora
Katie Bowman. Y es cierto que no se parece, porque aunque la prensa te haya
dicho que sí, que realmente ha sido gracias a su algoritmo con el que se ha
podido conseguir esta imagen, la cosa es que es mentira. Su algoritmo CHIRP al
final no fue utilizado en el proceso de la generación de la imagen. Si quieres
ver una explicación más actualizada de lo que ha consistido su trabajo, os
recomendamos esta charla de una hora que la propia Katie Bowman dio esta misma
semana. Sin embargo, aunque su algoritmo no se haya utilizado en el proceso final
de la generación de la imagen, sí es cierto que inspiró a la metodología de
trabajo que se ha utilizado. Porque este es el problema. A nivel teórico tú tienes
una idea de cómo debería verse el agujero negro, pero por otro lado tienes
una imagen muy muy dispersa que tienes que reconstruir. Así que, ¿cómo podrías
saber que la imagen es correcta o no? ¿Debería parecerse a lo que tienes en
mente? Pero, ¿y si la realidad es completamente distinta? ¿No estaría así
condicionando el resultado? Hace falta un plan. Y ese plan es el siguiente. El
proceso de reconstrucción de la imagen se dividió en dos fases. En la primera
fase, tras haber dejado un tiempo a los diferentes investigadores probar
múltiples técnicas de preprocesamiento y reconstrucción de imágenes sobre datos
sintéticos, se conformaron cuatro equipos diferentes cuya misión era
durante siete semanas trabajar de forma aislada en la reconstrucción de la
imagen con los datos capturados de M87. Dos de los equipos tomarían la vertiente
de usar el algoritmo CLEAN junto a otras técnicas y los otros dos equipos las
técnicas de RML. Y recordemos que cada uno trabajando de manera independiente y
sin compartir nada de información. Cuando el plazo acabó y las cuatro
imágenes generadas se pusieron en común, el resultado fue el siguiente.
A priori las cuatro imágenes pueden parecer muy distintas, sí. Pero en
realidad hay unos cuantos elementos en común que era un buen indicador de que
el proceso iba por buen camino. En todas las imágenes aparece la estructura de
un anillo, brillante en su parte inferior, y todas tenían el mismo tamaño. La
reconstrucción de estos elementos comunes era un buen punto de partida
para iniciar la fase 2. En la segunda fase se diseñaron tres procesos de
trabajos diferentes haciendo uso de las técnicas de la fase anterior. Uno basado
en CLEAN y otro dos basados en RML. Estos procesos requerían aún así fijar una
serie de parámetros que debían ser cuidadosamente seleccionados para
conseguir la reconstrucción más fiable. Para seleccionarlos se buscó reconstruir
una serie de imágenes sintéticas que mostraban diferentes formas y se eligió
aquel combo de parámetros que mejor resultado daban para cada estructura. Y
es interesante porque, por ejemplo, en este caso se puede ver que aunque hayamos
usado los parámetros que mejor sirven para reconstruir imágenes de discos
sólidos, cuando transferimos estos parámetros y los utilizamos sobre los
datos del agujero negro de M-177, obtenemos una imagen en forma de anillo
satisfactoria y no la de un disco. Un indicador de que nuestros parámetros son
lo suficientemente robustos como para no estar condicionados por la estructura
con la que han sido seleccionados. Un proceso de validación cruzada que nos
indica que sí podemos confiar en los parámetros elegidos para generar
nuestras imágenes. Y así es, porque para esta combinación de parámetros se ha
generado una imagen para cada día de medición y para cada proceso de
generación. Imágenes que aún así presentaban una serie de discrepancias
que fueron resueltas utilizando un tipo de desenfoque gausiano que
hicieran que esta diferencia fuera no significativa a nivel estadístico.
Tras desenfocarlas y combinarlas obtenemos la imagen que todos conocemos.
Y es así, gente, como se ha obtenido la primera imagen de un agujero negro.
Vale, pero ¿y qué significa la imagen? Es decir, yo veo esa cosa y ¿qué me está
contando? Eso lo veremos en un vídeo en mi canal. Exacto, tenéis los links por
aquí abajo, por aquí arriba, él está empezando en YouTube, así que va a ser
difícil encontrarle, pero bueno, ya encontraréis los links y no tengo
frase final. No acabas con de
ninguna manera uniforme, repetitiva. Me quedo mirando a cámara seriamente y ya
está.
¿Me podría? No.