logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Si hace unas semanas nos presentaban este vídeo de aquí todos los avances que han
convertido a Tesla en una de las mayores empresas de robótica del mundo, a través de sus
vehículos autónomos y su sistema autopilot, hoy sí que vamos a entrar de lleno a hablar
de la gran empresa de robótica que posiblemente todos conozcamos, Boston Dynamics.
¿Por qué la conocemos?
Bueno, pues porque desde hace años esta empresa se ha preocupado de ir haciendo públicas
muestras de cómo su trabajo ha ido evolucionando con píldoras audiovisuales que seguramente
todos habréis visto en redes sociales.
Vídeo donde podemos ver a sus diferentes creaciones bailando, haciendo piruetas espectaculares,
de promo con BTS e incluso siendo torturados por sus creadores en vídeos que, extrañamente,
no sé a vosotros, a mí me hacen empatizar un poco con el robot.
Y ahora que parece que el mercado de la robótica empieza a encontrar nuevos participantes,
creo que es un buen momento para aclarar alguna duda que estos vídeos suelen despertar en
muchos de vosotros.
Eh, por cierto, no lo aviso hasta ahora, pero si os quedáis hasta el final os voy a contar
los detalles de una competición muy chula donde podréis ganar una tarjeta gráfica
nueva.
Aguantad que luego os cuento.
En concreto nos vamos a centrar en la que para mí es su creación más espectacular,
Atlas.
Un robot con forma humanoide que es capaz de ejecutar impresionantes movimientos como
este.
Y es en concreto en este vídeo en el cual nos vamos a centrar.
Este vídeo se publicó el pasado mes de agosto, casualmente unos días antes de la famosa
presentación del robot de Tesla, el TeslaBot.
¿Casualidad?
Y es curioso porque lo compartí por Twitter e Instagram y por stories os estuve explicando
algunos de los detalles que me llamaron la atención de este vídeo.
Un buen momento por cierto para recordaros que podéis seguirme por allí para no perderos
nada.
Lo que fue curioso para mí fue la cantidad de respuestas que recibí de vosotros diciendo
que esto no era real, que era CGI.
Tranquilos negacionistas de los robots, no os culpo.
De verdad que incluso yo, cuando veo muchos de estos vídeos por primera vez, pues mi instinto
es pensar que lo que estoy viendo en la pantalla no puede ser cierto, que realmente parece
que estoy viendo una animación creada por ordenador.
Pero… ¿lo son?
Evidentemente, no.
Pero quiero dedicar un minuto a despejar esta duda que es tan frecuente.
Pensadlo por un momento, una empresa como Boston Dynamics no se va a jugar una reputación
que ha construido en base a viralizar su trabajo en internet con algún tipo de vídeo manipulado
que según se suba a la red pues caerá a las manos de expertos en creación de efectos
especiales que te van a explicar con todo lujo de detalles por qué ese vídeo es falso.
De hecho, tenemos que mirar a estos expertos en efectos especiales para encontrar al culpable,
en concreto al equipo tras el canal de YouTube Corridor Digital, quienes pasándose en estos
vídeos de Boston Dynamics crearon estas excelentes recreaciones.
En este caso la empresa se llama Boston Dynamics, para más pistas de que este vídeo no es
un vídeo oficial, y aquí podemos ver a lo que parecen versiones de Atlas tomándose
la justicia por su mano tras años de maltrato de sus investigadores.
Estos vídeos son muy buenos, y a ojo de no expertos podrían pasar por reales.
Pero tranquilos, es CGI, y esto de aquí no lo es, y siendo así, la pregunta que nos
tenemos que hacer cuando vemos estos vídeos es ¿Cómo funciona?
Pues Atlas es una bestia humanoide de 89 kilogramos de peso y 1,5 metros de altura, con un cuerpo
ligero conformado por piezas impresas en 3D diseñadas para hacer resistentes a saltos,
volteretas y cualquier intento de alguna de estas cosas que acaba en fail.
Y si te persigue?
Bueno, pues tienes que saber que la velocidad que puede alcanzar este robot es de 2,5 metros
por segundo, o visto de otra forma, 9 kilómetros hora, que es exactamente la misma velocidad
que alcanza el escarabajo tigre.
Y no, no es que Atlas sea lento, es que el escarabajo tigre es verdaderamente rápido,
pero bueno, para hacerlo más comparable, digamos que Atlas cumple con lo que sería
la velocidad de trote típica de un humano, así que mala suerte.
Para su funcionamiento, Atlas integra baterías que darán energía a sus computadores y sistemas
hidráulicos.
¿Hidráulicos?
Sí, en este caso el movimiento del robot Atlas se consigue a través de actuadores
hidráulicos, 28 en total, actuadores cuyo funcionamiento se basa en el empuje que se
produce en los pistones que dan movimiento al robot cuando líquido a alta presión es
bombeado por todo su cuerpo.
Esta es la opción elegida por Boston Dynamics, pero existen otras alternativas.
Con esta misma idea, para generar movimiento, si en vez de usar un líquido usáramos aire
a presión, pues estaríamos trabajando con actuadores neumáticos.
Y seguramente si alguna vez te has encontrado cerca de alguno de estos actuadores, no lo
habrás distinguido por cómo se ve, sino por el ruido que genera.
Y por otro lado, otra alternativa que podemos encontrar y cuyo uso es más frecuente, son
los actuadores eléctricos, que directamente convierten la energía eléctrica en movimiento.
Y fijaros que aquí es donde vemos lo que podría ser una de las principales diferencias
de diseño entre dos grandes competidores en el mercado de la industria de robots humanoides,
Atlas y TeslaBot, dejando eso sí al margen que ninguno de estos dos robots son opciones
comerciales actualmente y que el de Tesla solo es una propuesta sobre la mesa escrita
en papel.
Pero bueno, podemos ver que la idea tras la empresa de Elon Musk es hacer uso de estos
actuadores eléctricos frente a los hidráulicos que mueven a Atlas.
Con 40 actuadores eléctricos, el TeslaBot tendría un diseño más compacto, robusto
y menos propenso a fallos, algo que tiene sentido si aspira a ser un producto comercial
real.
Pero eso sí, con esta alternativa difícilmente podrá competir en agilidad, fuerza al levantar
peso o en resistencias altos y piruetas con nuestro amigo hidráulico.
Pero la movilidad no es solo saber articular todas las piezas mecánicas del robot, sino
también saber calcular cómo estos movimientos se deben de ejecutar, adaptándose a la variabilidad
del escenario, a los obstáculos o a las imprecisiones de los movimientos anteriores.
Aquí viene la gran pregunta, ¿Hacen uso de Machine Learning?
Pues aquí está lo interesante, NO.
El proceso de control de los robots Atlas no hace uso en ningún caso de Machine Learning.
Ni Atlas, ni muchas de las otras creaciones de Boston Dynamics.
De hecho, si buscamos por la web de la empresa, encontraremos que el poco uso que hacen del
Deep Learning están en los sistemas de visión de su robot PIC, entrenado para reconocer
los diferentes paquetes que tiene que descargar.
Pero no, poco más.
Aparte de esto, parece que el uso de la más moderna tecnología de aprendizaje automático,
las redes neuronales, el Deep Learning, aquí no se está utilizando.
Entonces, ¿Cómo funciona?
Pues para percibir el mundo que le rodea, Atlas cuenta con un sistema de visión conformado
por cámaras y un LIDAR, para la fácil detección de la profundidad.
Con este sistema no es necesario hacer uso de complejos sistemas de visión por ordenador
basados en Deep Learning, como vimos con el caso del sistema Autopilot de Tesla.
Aquí el sistema LIDAR es capaz de escanear la tridimensionalidad de la escena, generando
una nube de puntos como esta.
Fijaos como en este caso incluso se puede detectar lo que sería el fantasma de uno
de los cámaras.
A partir de aquí, con la nube de puntos, ahora podemos aplicar algoritmos tradicionales
que pueden extraer las superficies planas que suponen los obstáculos del escenario.
Aquí se pueden ver delimitadas en naranja.
Y utilizarlas para que Atlas pueda planificar cómo moverse sobre ellas.
Y creo que no pillará a nadie por sorpresa cuando diga que esta planificación no se
tratan de decisiones que el robot esté ejecutando de forma genuina e improvisada como forma
de adaptarse al contexto de la situación.
No, no es que el robot de repente ve una sala amplia, piense que es una pista de baile y
decida que la mejor opción es ponerse a perrear.
Evidentemente, todo esto parte de unas rutinas que están bien planificadas y preprogramadas
por el equipo de Boston Dynamics y que serán ejecutadas por el robot.
Y esto es interesante, porque esta metodología nos podría hacer pensar en la escasa autonomía
que estos bichos tienen, donde apenas tendrían ninguna adaptabilidad al entorno.
Podríamos pensar que si algún obstáculo o rampa no se encuentra en la posición exacta
en la que el robot espera que va a estar, según el circuito que la hayan facilitado,
pues seguramente acabe de esta manera.
Pero esto no es del todo cierto, y es que según detalla Boston Dynamics, las instrucciones
que se le dan al robot y la situación del mapa por el que se tiene que mover están
especificadas a un alto nivel.
Por lo tanto, podemos imaginarnos que no se trata de instrucciones del tipo gira a 48
grados en las coordenadas X y ejecuta un salto con tanta fuerza.
No.
Más bien serán instrucciones del tipo gira y salta al cubículo de la derecha.
Así el robot, en un juego combinado entre lo que está percibiendo con su sistema de
visión y las instrucciones que tiene que completar, podrá adaptarse a resolver esa
tarea, no importando si la plataforma por ejemplo en la que tiene que saltar está centrada
o medio metro a la derecha.
El robot se puede adaptar.
Y aquí viene otro punto importante.
Estas instrucciones que Atlas tiene que ejecutar son acciones que el robot sabe realizar porque
ya se han diseñado previamente, ya están calculadas.
Se utilizan técnicas de optimización de trayectoria para encontrar aquellos movimientos
del robot que, sorteando las limitaciones de su mecánica, mejor capturan cómo deberán
de moverse cada una de las partes de su cuerpo para ejecutar correctamente un movimiento.
Así el robot, cuando empieza su espectáculo, ya tiene cargada internamente una librería
de trucos que sabe cómo tiene que ejecutar, y su tarea será saber cuál es el mejor movimiento
a ejecutar en cada caso para completar su ruta.
Además, Atlas sabe en todo momento cómo su cuerpo se está moviendo por el espacio.
Cuenta con sensores de fuerza, por ejemplo para saber con qué presión está pisando
el suelo, unidades de movimiento inercial, sabe la posición de sus articulaciones, todo
esto en tiempo real.
Y así es como el robot puede construir un modelo completo de las dinámicas de su cuerpo,
sabe cómo se está moviendo.
Y esto, combinado con que gracias a su percepción también cuenta con un modelo del escenario
por el que se mueve, en conjunto le permite poder adelantarse y estimar cuál va a ser
la evolución de sus movimientos, y ejecutar aquel que considere mejor.
Fijaos en este caso, en esta vista en primera persona de Atlas, cómo la línea azul es la
predicción que el robot va haciendo de dónde se va a situar en los pasos futuros.
Una auténtica pasada.
Y sabiendo esto, creo que ya podemos entender qué partes tenemos que entrar a valorar en
los vídeos de Boston Dynamics, que el robot puede ejecutar una pirueta es una pasada,
pero la verdadera dificultad es la de conseguir completar circuitos enteros donde pirueta
tras pirueta, uno o dos Atlas consiguen ejecutar toda su rutina a la perfección.
Y aquí ahora os planteo una segunda pregunta, vale, no hacen uso del Machine Learning,
pero por qué?
Pues la respuesta creo que está en que… bueno, no les interesa de momento.
Es decir, pensad que el campo de deep learning ha tenido un desarrollo muy rápido en muy
poco tiempo, y si bien vemos resultados espectaculares para determinadas tareas, en otras áreas
como la robótica, aún estamos empezando a ver qué beneficios nos aporta.
De momento, como hemos visto, pues parece que Boston Dynamics apuesta por hacer el diseño
de los movimientos y trucos que ejecutan su robot a la manera tradicional, exigiendo esto
un montón de trabajo de refinamiento manual por parte de sus ingenieros.
Pero desde el campo de deep learning tenemos una alternativa, la alternativa de no ser
nosotros quienes tengamos que diseñar sus movimientos a mano, sino dejar que sea el
robot el que fuera aprendiendo a cumplir una tarea objetivo que nosotros la hayamos especificado.
Por ejemplo, aprenda a caminar.
La alternativa es la del aprendizaje, y en concreto se utiliza uno de los paradigmas
menos hablados aquí en el canal, que es el aprendizaje reforzado.
La idea de que un comportamiento puede ser aprendido en base a repetir y repetir un montón
de iteraciones, en base a ensayo y error, una serie de acciones que en el largo plazo
permite a la gente inteligente aproximarse a su objetivo.
Suena bien.
Aquí el principal beneficio es que estamos dejando que la máquina sea la que aprenda
en base a probar y probar un montón de veces.
Ya no hay una labor humana.
Bueno, depende, y es que, pensándolo mejor, si nuestro plan es dejar que una máquina
aprenda a hacer piruetas en base a darse golpe de forma repetida, pues a lo mejor gran
parte del esfuerzo humano ahora se destina a tener que reparar a estas bestias mecánicas.
Claro, pensando ahora en el altísimo número de iteraciones que requiere el entrenamiento
de una red neuronal, pues se empieza a ver por qué esta no es una alternativa viable.
Y es por eso que una de las líneas de investigación más importantes de esta área pasan por la
simulación.
Es decir, crear simuladores que imiten cuál sería el comportamiento de nuestros robots
y dejar que sea ahí donde se entrenen.
Sin ningún coste material en daños, a una velocidad de entrenamiento muy superior y
sujeto a ser paralelizable.
Podemos entrenar a la gente inteligente con aprendizaje reforzado para que aprenda nuevos
comportamientos y luego transferirlos a la máquina real para que los ejecute.
El problema aquí es que no siempre esta transferencia de aprendizaje es del todo satisfactoria,
ya que es normal que existan diferencias entre el entorno virtual donde el robot se entrena
y el mundo real donde se ejecuta.
Fricciones de la mecánica, rozamiento del aire, brillos o cambios de texturas percibidas
por las cámaras son diferencias.
De ahí la necesidad, como ya vimos también en el video anterior sobre Tesla cuando hablamos
de los espectaculares entornos de simulación que están creando, de aproximar el parecido
entre el mundo virtual y el mundo real.
Y es sobre este tema del que quiero hablaros en un futuro video introduciendo conceptos
como gemelo digital o hablando de herramientas como Unreal Engine 5 que también a día de
hoy nos está dando la capacidad de poder generar mundos casi indiferenciables de la
realidad.
En realidad, muy buenos temas, ya me fastidiaría no estar suscrito y con la campanita activada
para que me lleguen notificaciones cuando estos videos se publiquen.
Pero bueno, con esto creo que están claras cuáles pueden ser las dificultades que hayan
hecho decantarse el equipo de Boston Dynamics para el uso de técnicas diferentes a la de
aprendizaje automático, aunque no tengo dudas, y si tengo pruebas, de que esto en un futuro
podría cambiar.
Aporto estas evidencias con esta propuesta de trabajo que me he encontrado publicado
recientemente en su web, donde se ve que parece que están intentando buscar talento que pueda
dedicarse al desarrollo de estos sistemas de aprendizaje por refuerzo.
Quién sabe si en un futuro podremos ver versiones de Atlas o cual sea el modelo en el que evolucione
que ya no solo nos sorprendan por sus capacidades acrobáticas, sino también por sus capacidades
de adaptabilidad y aprendizaje.
De momento creo que estas innovaciones van a seguir perteneciendo unos añitos más al
área de la investigación, como ocurre con Atlas, que en ningún caso es un producto
comercial como es Spot o cualquiera de estos robots.
Hasta ahora solo es una plataforma de desarrollo e investigación para el equipo de Boston
Dynamics, pero está claro que nos estamos adentrando en una era donde la robótica está
evolucionando cada vez más, donde nuevos competidores se suman a un mercado que todavía está dando
sus primeros pasos, pero en el que echando la vista atrás, viendo cuál ha sido su evolución
en tan solo pocos años, nos puede hacer optimistas ante el tipo de máquinas que podríamos ver
en la próxima década.
En cualquier caso, sea cual sea la evolución de estos sistemas, aquí lo seguiremos analizando.
Y ahora tengo una propuesta para ti, escucha bien porque esto te va a interesar y además
puede ganar una tarjeta gráfica.
Os quiero presentar el siguiente datatón que va a celebrarse la semana que viene.
Para el que no lo sepa, un datatón es un tipo de competición donde sepa poner a prueba
vuestras capacidades de análisis de datos y aplicación de sistemas de deep learning.
Además, en este caso me hace especial ilusión que este datatón se esté organizando desde
Gran Canaria, que es la isla a la que pertenezco.
Tranquilos porque podéis participar online, aquí durante los tres días de la competición
pues se os van a plantear dos retos que podéis trabajar.
Por una parte hay uno más orientado al mundo del deep learning, donde se os van a facilitar
datos científicos reales, existe una plataforma oceánica que está en Gran Canaria y donde
vuestro trabajo será analizar el contenido de las imágenes capturadas por robots submarinos,
intentar reconocer si hay animales, si hay restos de barcos hundidos, de lo que sea.
Un reto que como veis pues exige bastante visión por ordenador y por otro lado el
otro reto es más tipo análisis de datos con datos tabulares sobre datos del sector
turístico de Canarias.
Vuestra tarea aquí será desarrollar alguna propuesta de valor con estos datos.
Esta competición se celebrará del día 17 al 19 de septiembre y si participáis y lográis
ser los mejores pues podéis optar por dos suculentos premios que en este caso son dos
tarjetas gráficas, una para cada reto.
Así que ya sabéis, si queréis apuntaros tenéis hasta el 15 de septiembre como fecha
límite para inscribiros, voy a dejar abajo un enlace a la página web de este evento
para que podáis echar un vistazo a todos los detalles y si realmente os interesa pues
participad.
Realmente un datatón es una experiencia súper divertida, vais a aprender muchísimo
y bueno con suerte incluso podéis ganar estos interesantes premios.
Y por mi parte nada más, si te están gustando todos estos vídeos apóyalos a través de
Patreon.
No hay mejor forma de agradecer este tipo de contenido en YouTube con el que estáis
aprendiendo y os entretenéis, espero, o es que con una aportación mensual a través
de Patreon, os voy a dejar también abajo el enlace.
Por mi parte ya nada más, nos vemos con más Inteligencia Artificial la próxima semana.
¡Adiós!