This graph shows how many times the word ______ has been mentioned throughout the history of the program.
Una colaboración entre Google y la Universidad de Harvard publicada en Nature nos explica
cómo mediante el uso de redes neuronales se ha conseguido entrenar a un modelo con
el que poder localizar con precisión las réplicas producidas por un terremoto.
Tras un gran seísmo, es habitual que se produzcan movimientos sísmicos de menor magnitud
de la misma zona debido a la readecuación de la corteza terrestre.
Estos temblores son denominados réplicas y su estudio ha permitido describir leyes
empíricas que nos explican cómo va a decaer su intensidad con el paso del tiempo y cuál
va a ser su magnitud máxima.
Sin embargo, limitaciones de estos modelos nos hace más complicado ubicar la localización
espacial en las que estas réplicas se van a producir.
Para modelar estos, se han hecho uso de algoritmos de machine learning de aprendizaje supervisado
a los que se le ha proporcionado más de 131.000 pares de ejemplos de terremotos y sus réplicas.
Tras su entrenamiento se ha testado su rendimiento en base a la métrica área bajo la curva,
obteniendo un resultado de 0,849 y superando notablemente la evaluación de 0,583 obtenida
por el criterio de fallo de Coulomb, el modelo empírico que se ha utilizado hasta el momento.
Una demostración de cómo haciendo uso de algoritmos de inteligencia artificial, no
sólo podemos entrenar a mejores modelos, sino también desarrollar herramientas que
nos permitan formular nuevas leyes empíricas.
Impresionante publicación de la Universidad de Berkeley, titulada Everybody does now.
Ah no, que esta broma ya la hizo Ciras Raval en su canal.
En este proyecto, muy similar al que estuve trabajando el pasado mes de julio en Jehu,
se ha conseguido utilizar algoritmos generativos de machine learning para la sintetización
de vídeos los que una persona aparece realizando los movimientos extraídos de otro vídeo.
Esta técnica se denomina Motion Transfer y básicamente el objetivo que se busca es
la de inicialmente inferir la pose del sujeto en el vídeo objetivo y copiar este movimiento
para transferirlo en un nuevo vídeo donde se sintetiza a otro sujeto realizando estos
movimientos.
El algoritmo de machine learning deberá de aprender la apariencia del sujeto a sintetizar
a partir de una pose dada y como podemos ver en estos ejemplos, los resultados son completamente
asombrosos, consiguiendo tomas en las que podemos ver a bailarines amateus realizando
piruetas profesionales.
El sistema infiere la pose del sujeto objetivo haciendo uso de un modelo ya pre-entrenado
y utiliza estos pares de fotogramas y poses para aprender de forma supervisada a sintetizar
nuevos fotogramas para las poses dadas.
Con esto y aplicando redes generativas adversarias, podemos conseguir sintetizar estos fotogramas
de manera casi realista.
El generador condiciona no solo la información de la pose para sintetizar el nuevo fotograma
sino que también hace uso del frame sintetizado previamente para crear así una secuencia
más fluida.
De nuevo, un trabajo muy interesante con muchas posibles aplicaciones.
Similar al problema que se resuelve en la noticia anterior, Nvidia ha presentado una
publicación denominada Bit2Bit, que progresa en la tarea de sintetizar imágenes y vídeos
realistas a partir de anotaciones semánticas dadas como input.
El sistema presentado implementa un conjunto de técnicas con las que se puede conseguir
secuencias de vídeos fluidas y temporalmente coherentes, siendo posible obtener diferentes
versiones de una misma descripción de entrada.
Por ejemplo, aquí podemos ver como para la misma descripción de los elementos básicos
de un rostro, podemos generar resultados alternativos con un nivel de realismo bastante aceptable.
De la misma forma, podemos usar esto para sintetizar escenas realistas de conducción
donde para la misma descripción podemos intercambiar edificios por árboles o viceversa.
El avance de este sistema es el de conseguir esto logrando una fluidez y una consistencia
en los fotogramas generados, superando notablemente los resultados obtenidos con sistemas previos.
El código está disponible, así que ¿a qué esperas para probarlo?
Estamos acostumbrados a ver trabajos en los que se aplica un algoritmo de aprendizaje
reforzado para aprender a ganar a juegos y más recientemente estos métodos se están
adentrando en el dominio de los entornos multiagentes, es decir, entornos en los que son varios los
agentes inteligentes que participan, siendo necesario aprender comportamientos inteligentes
colectivos de competitividad y o colaboración.
Este proyecto de DeepMind se suma a esta lista de proyectos, publicando sus avances en el
uso de la inteligencia artificial para crear agentes inteligentes que pueden jugar de manera
profesional a partidas de captura a la bandera.
En este juego los agentes deberán de colaborar en equipo y formular estrategias para robar
la bandera de la base enemiga y al mismo tiempo defender su base del equipo contrario.
Todo esto en un entorno en 3 dimensiones multiplayer en primera persona.
Cada uno de los agentes deberá de aprender a optimizar su señal de recompensa y en base
a esta aprender cuáles son las acciones que deberán de tomar en cada situación para
diferentes tipos de mapas y equipos.
Tras su entrenamiento se celebra una serie de torneos con equipos conformados por humanos
y bots en los que los agentes artificiales mostraron un rendimiento superior al de los
humanos, incluso mostrando mayor capacidad de colaboración entre ellos.
Mediante el estudio de las diferentes activaciones de las neuronas de los agentes se ha comprobado
la aparición de algunos comportamientos fundamentales dentro del juego de capturar
la bandera, como por ejemplo defender el campamento base, seguir a compañeros o campear la base
enemiga.
Recordemos que lo interesante aquí es que inicialmente la gente no tiene conocimiento
de cuáles son las reglas del juego, por tanto esto es un buen ejemplo de la aplicación
de la inteligencia artificial en entornos multi agentes.
Una publicación del equipo de Google AI nos trae una red neuronal que de forma no supervisada
es capaz de aprender a colorear toda una secuencia de video tomando solo como muestra el color
del primer fotograma del video.
Una tarea para la cual la red muestra un rendimiento notable, aunque se trata de un problema que
ya había sido resuelto con anterioridad, y es que esta publicación no se centra en
la capacidad artística de la red.
Lo que han identificado los investigadores es que para ser capaz la red de aprender dicha
tarea basándose solo en la información del primer fotograma, implícitamente ha tenido
esta que desarrollar su habilidad de trackear los objetos porque, bueno, comúnmente el
mismo objeto deberá de mantener el mismo color, ¿no?
Esto es interesante porque lo que se está planteando es una nueva forma de afrontar
determinados problemas de machine learning, donde en vez de tratar una tarea directamente,
por ejemplo trackear objetos, lo que se hace es buscar otra tarea diferente, que pueda
ser resuelta más fácilmente, por ejemplo colorear imágenes.
Todo esto con la expectativa de que la tarea que realmente queremos solventar sea aprendida
por la red como un mecanismo necesario para resolver el otro problema.
He seleccionado este trabajo porque nos invita a pensar de una forma novedosa y diferente
el cómo afrontar determinados problemas de machine learning.
Muy interesante.
Suele ocurrir que cuando hablamos de noticias de inteligencia artificial, la gran mayoría
de avances quedan reducidos a un pequeño grupo de empresas e instituciones, The Mind, Google,
OpenAI, Microsoft, Nvidia, que son las que tienen los recursos necesarios para desarrollar
dichas investigaciones y o darle más visibilidad en los medios de comunicación.
Quizás por eso esta noticia puede ser vista como una esperanza para aquellos equipos con
recursos más limitados.
Hoy hablamos del caso de FastAI, que para quien no lo conozca es un equipo de trabajo
liderado por Jeremy Howard, cofundador de Kaggle.
El logro conseguido por la empresa ha sido el de establecer un nuevo récord de velocidad
en el entrenamiento de ImageNet.
Para quien no lo conozca, ImageNet es un gran dataset de imágenes utilizados para entrenar
modelos de reconocimiento visual, y que actualmente es utilizado para que investigadores puedan
competir en ver quién proporciona el modelo entrenado de manera más eficiente, teniendo
en cuenta la precisión de las predicciones y velocidad de entrenamiento.
En este sentido, el equipo de FastAI consiguió entrenar ImageNet hasta alcanzar un 93% de
precisión en solo 18 minutos, usando 16 instancias de Amazon Web Service con 8 GPUs cada una.
Al margen de los números, lo que esto implica es un nuevo récord, por encima incluso de
otros competidores conocidos como Google, con un resultado un 40% más rápido.
Esto lo han conseguido gracias a combinar numerosas técnicas de optimización muy interesantes
y algunas poco conocidas, que tarde o temprano serán incorporadas en su librería FastAI.
En relación a esto, no quiero perder la oportunidad de recomendaros el curso gratuito que ofrecen
en su página web, donde además de enseñar muchos conceptos fundamentales de deep learning,
también se detallan algunos de estos consejos para desarrollar modelos más óptimos.
Muy recomendado, tenéis el link en la descripción.
Gracias a la inteligencia artificial, el campo de la robótica está evolucionando hacia
un nuevo nivel de robots inteligentes, donde las tareas que realizan los robots no están
preprogramadas sino que son aprendidas por ellos.
Una de esas habilidades importantes es la de manipular con destreza objetos de forma
similar a como lo hacemos los humanos, teniendo como único input la información visual.
El problema es que este aprendizaje basado en múltiples iteraciones de prueba y error,
cuando se ha entrenado con entornos simulados, no se han podido trasladar los resultados
obtenidos a brazos robóticos reales con la misma eficiencia, y trabajar directamente
con brazos robóticos hace el proceso de entrenamiento muy lento.
En esta línea, OpenAI ha publicado un nuevo trabajo donde han conseguido entrenar a brazos
robóticos para que, usando sus dedos mecánicos, puedan orientar un cubo a la posición solicitada.
La novedad de su trabajo es que gracias a las técnicas utilizadas sí pudieron entrenar
al algoritmo en un entorno simulado, siendo lo suficientemente robusto como para que después
de dicho conocimiento fuera transferido con efectividad a un brazo robótico real.
Para alcanzar este nivel de robustes, han aplicado una técnica denominada Domain Randomization,
donde el entorno simular es generado con múltiples variaciones en colores, velocidad de la mano
o peso y fricción del cubo, permitiendo al algoritmo aprender estrategias más generales
para resolver dicha tarea.
Un paso más hacia un futuro donde los procesos productivos de nuestras fábricas puedan ser
asistidos por robots más inteligentes.
Y bueno chicos y chicas, hasta aquí el vídeo de hoy, pero antes de que se vayan quiero
decir un par de cosas, así que manténganse un momento ahí.
Y es que ya por fin se acaba el modo vacaciones del canal, ya estoy más o menos en el lugar
donde debo de estar, de hecho bueno, lo primero de todo estoy ya con la cámara profesional
que es una de las cosas importantes que necesito, también estoy grabando por fin con el audio
correcto, ¡aleluya!
Y quizás lo único que me falla sea la localización ahora mismo, pero bueno, estoy en buena compañía.
Así que bienvenido de nuevo al canal AdoptSV Temporada 2, vamos a seguir hablando de inteligencia
artificial, vamos a seguir hablando de todas estas noticias que tanto nos gustan, vamos
a seguir aprendiendo, todos juntos.
Y nada, quería también avisar que hace una semana, antes de irme a Bilbao con todo el
grupo de Senio, subimos un vídeo, una colaboración, Nebesu, del canal Saudos Culturetas y yo,
en el que hablábamos de robótica, hablábamos de los sistemas productivos, hablábamos de
Overwatch, el videojuego, y que yo creo que es muy interesante para que lo vean, sé que
muchos no lo han visto porque creo que tiene unas 500 reproducciones y aquí somos unos
cuantos.
Así que si no te has enterado, vete corriendo a verlo porque sí hay vídeos, los que están
en otros canales.
Y también mañana el cúbil de Peter va a subir una entrevista que me hizo este fin
de semana en Bilbao y que también recomiendo verla, porque va a estar muy guay.
Tendrán abajo en la sección de comentarios los enlaces a los dos vídeos, el del cúbil
de Peter cuando salga el vídeo lo actualizaré, y nada más, simplemente agradecer que se
hayan mantenido todo este verano aquí a la espera, ha habido contenido, ha habido algo,
pero bueno, no al ritmo habitual del canal, espero poder retomarlo de nuevo, posiblemente
sí, incluso un poquito más, no me quiero comprometer, pero bueno, puede que exista
esa posibilidad.
Y nada, agradecer a toda la gente que se ha mantenido todo este tiempo, tanto suscriptores
como gente pidiendo por redes sociales que volviera, que subiera vídeos y todas estas
cosas.
Muchas gracias por vuestro entusiasmo, gracias a los patreons que se han mantenido también
durante el verano, incluso la cifra de gente financiando el canal en Patreon ha aumentado,
ya somos 23 patreons, cosa que también me alegra bastante, y nada más.
Hasta aquí el vídeo de hoy, y como ya he dicho, empieza la segunda temporada de Dot
Se Selva.