logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Se acerca peligrosamente 2020, la nueva década, y un día hablando con ese
colega con el que siempre discute de los últimos avances tecnológicos, te das
cuenta de que falta algo, algo que te prometieron y que todavía no te han dado,
algo que te hace girar hacia tu colega y que le preguntes.
Tío, ¿y mi coche? ¿Y tu coche, tío?
Tío, ¿dónde está mi coche? ¿Dónde está tu coche, tío?
Tío, ¿y mi coche? ¿Y tu coche, tío? Exacto. ¿Dónde está mi coche? Autónomo.
A ver, si tuviéramos que identificar cuál han sido una de esas promesas futuristas cargadas de hype
asociadas a toda esta ola de progreso que nos ha traído el deep learning,
creo que todos podemos acordar que el coche autónomo está en el top 1.
La promesa de conseguir que finalmente sea la máquina la que se encargue de la
compleja tarea de entender el mundo y saber navegarlo adaptándose a los
múltiples desafíos que puedan surgir, tiene un potencial transformador de tal
calado que muy difícilmente ni la academia ni la industria lo podían dejar pasar.
Y es por eso que vemos como todas las grandes empresas automovilísticas han
invertido durante los últimos años millones en investigar y desarrollar sus
propios prototipos de vehículos autónomos. Ford, Renault, Toyota, Huaymo, Uber, Mercedes, Audi...
Y sí, por supuesto. Tesla, empresa que ya ofrece el poder comprar paquetes de
conducción autónoma completa en sus vehículos, cumpliendo así las
expectativas predichas por Elon Musk, quien dijo que para 2018 Tesla ya
tendría disponible en el mercado un coche autónomo completo.
Y bien, ¿lo tienen? Pues... no exactamente. Sí. A día de hoy los coches de Tesla
equipados con el sistema FSD, Full Self Driving System, si bien nos harían
pensar que son vehículos que te conducen de manera autónoma por cualquier
carretera, en realidad sólo te aportan una serie de funcionalidades extra de
navegación autónoma al sistema autopilot que viene por defecto en estos
coches. Es decir, cambio automático de carriles bajo acción del conductor,
aparcado automático, que el coche te venga a buscar en el aparcamiento o la
navegación automática en entrada y salida de autopistas. Un conjunto de
asistencias en carretera que en realidad no dejan de ser impresionantes y que
esconden detrás mucho trabajo de ingeniería, pero que en conjunto no se
pueden considerar conducción autónoma completa. ¿Qué pasa aquí? A ver, para que
lo puedas entender bien. Te voy a familiarizar con la famosa escala
propuesta por la Society of Automotive Engineers, la SAE, en la cual se
clasifican las capacidades autónomas de un vehículo en seis niveles
diferentes, donde el nivel 0 sería un coche que no presentaría ninguna
funcionalidad de conducción asistida, vamos, el SEAT 600 de tu abuelo, y donde
según vamos progresando niveles, la cosa se vuelve más interesante. El nivel 1 y
2 nos describe un tipo de conducción en el que ciertas tareas críticas como
acelerar, frenar o girar el volante son controladas parcialmente por el sistema,
pero eso sí, siempre bajo la supervisión del piloto, el humano, del cual sigue
dependiendo gran parte de la conducción. Un nivel 3, en determinados casos, ya no
requeriría de la monitorización continua del piloto humano, pudiendo el
vehículo tomar el control total de la conducción, pero eso sí, el piloto
siempre deberá estar alerta por si el coche encontrará alguna limitación, que
la habrá. Esto no ocurriría en un nivel 4, donde en ciertos escenarios limitados,
pensemos por ejemplo en carreteras principales con metrología favorable, el
humano podría ser completamente imprescindible, o dicho de otra manera,
podría dedicarse a cualquier otra cosa productiva, mientras el coche se
ocuparía plenamente de la conducción. Ahora, si lo logrado por el nivel 4 lo
pudiéramos asegurar para cualquier tipo de escenario, es decir, que tu vehículo
no necesitará tener ni volante, ni sillones, ni pedales, ahí estaríamos
hablando de un coche con un nivel de autonomía 5, la conducción autónoma
completa. Claro, viendo esta escala nos damos cuenta que aunque Tesla oferte un
paquete conducción autónoma completa, en realidad el nivel de autonomía que tú
puedes experimentar como cliente, se encontraría entre el nivel 2 y 3. Esto es
algo que se le ha criticado bastante a la compañía, quien se defiende diciendo
que ellos ofrecen un vehículo con el equipamiento necesario, el hardware, para
poder implementar una conducción autónoma total, y que será a través de
actualizaciones de software y avances en la legislación, lo que permitirá que el
coche vaya logrando una mayor autonomía hasta alcanzar el nivel 5, algo que de
momento muchos expertos, mirando las promesas pasadas de Musk, observan con
muchas dudas. Y ojo, porque este exceso de expectativas no proviene solo de Tesla,
sino de la industria completa. Por ejemplo, ya Google en 2002 anticipó que en 5 años
el coche autónomo sería una realidad para el consumidor, algo que de momento en
2019 todavía sigue siendo un proyecto piloto en pruebas bajo la empresa de
conducción autónoma de Alphabet, Waymo. O por ejemplo Ford, que en 2016 anunció
que en 5 años, de nuevo, se encontraría produciendo coches sin volantes ni
pedales, para un par de años después declarar que el problema era más
complicado de lo que esperaban inicialmente. Algo similar a lo ocurrido
con General Motors, que anunció que este objetivo requiere de más tiempo. Y yo,
pues mira, la verdad a mí es que este tema del marketing me aburre demasiado.
Sinceramente me da igual qué compañía la tiene más grande, el nivel de
autonomía de los vehículos me refiero. Aquí en este canal, en.csv, no nos
interesamos por el quién, sino por el porqué. ¿Por qué este es un problema tan
complicado de resolver? Para eso tenemos que entender cómo funciona un coche
autónomo. ¿Problema a resolver? Bueno, pues que un vehículo se pueda conducir
solo. Pero claro, este es un problema bastante complejo. No solo porque conducir
implica saber adaptarse a diferentes tipos de carreteras, meteorología, pues si
hay lluvia, niebla o luz del atardecer, o estilos de conducción, ya sea en
autopista o en ciudad. Sino también porque todo esto ha de funcionar en
coordinación con otros conductores, peatones y cualquier elemento
impredecible que pueda aparecer en carretera. Vamos, un caos de problema. Para
resolverlo podemos dividir el problema entre sus problemas diferentes.
Percepción, predicción y acción. Empecemos con la percepción. Para conseguir que un
coche sea capaz de percibir todos los elementos de su entorno, hará falta que
el coche cuente con los sensores necesarios. Y es en esta partada donde se
vive una de las batallas tecnológicas más apasionantes de nuestro tiempo. La
batalla de las cámaras contra el LiDAR. Una cámara es, bueno, una cámara RGB
convencional. Quizás te suene menos el concepto del LiDAR. Este es un aparatito
que se monta encima del vehículo y que se va a encargar de lanzar pulsos de luz
láser en 360 grados para medir la velocidad de rebote de estos y
conformar un mapa de puntos tridimensionales del entorno que le
rodea. La ventaja de esta tecnología es que lanzando millones de pulsos de luz
por segundo se puede detectar en tiempo real y en alta resolución todo lo que
hay alrededor del vehículo, lo cual será importante para los siguientes pasos.
Esto hace del LiDAR una herramienta clave y es por ello que casi todo lo que
grandes productores de automóviles han optado por integrarlo en sus diseños.
Y sí, he dicho casi todos, porque has de saber que hay una compañía que en su
obsesión por disminuir el coste de producción de sus vehículos ha optado
por eliminar de la ecuación el uso del LiDAR, cuya principal de ventaja es su
elevado coste. Esta empresa, nuevamente, es Tesla.
Esta segunda vía abierta por Tesla basa la percepción del vehículo
principalmente en el uso de cámaras y machine learning. 8 cámaras localizadas
en cada flanco del coche se encargarán de capturar en 360 grados lo que ocurre
alrededor del vehículo. Es ahí cuando los algoritmos de machine learning entran
en juego para dar sentido a estos datos bidimensionales y solventar las
carencias de este sistema frente al LiDAR. Y es que como ya vimos en el vídeo
del meme que entrenó a una inteligencia artificial, la visión estereoscópica
lograda al situar cámaras en diferentes ángulos pueden ser suficientes para
poder inferir la tridimensionalidad de una escena. Eso sí, siendo tu sistema
menos robusto al tener que confiar plenamente en el uso de algoritmos de
machine learning. Como complemento a estos sensores, ambas
alternativas también cuentan con un radar cuya amplia longitud de onda
permite hacer una detección de la distancia de los objetos incluso en
situaciones donde el LiDAR y las cámaras se vieran limitadas, como por ejemplo en
aquellos momentos donde la meteorología no ofrece buena visibilidad. Pero al
margen de esto, es la decisión de utilizar el LiDAR o no lo que establece
esta gran diferencia estratégica en el apartado de la percepción. En cualquier
caso la labor de percepción no acaba ahí, porque indiferentemente de si has
optado por medir o inferir la tridimensionalidad de la escena, ahora
toca dar sentido a todos estos datos y entender su contenido. Para esto lo que
se hace es diseñar numerosos tipos de redes neuronales que son entrenadas para
resolver diferentes subproblemas. Así, por ejemplo, podemos resolver problemas de
segmentación para diferenciar los diferentes tipos de elementos percibidos
en escena. Podemos crear una red que se encargue de la localización de objetos.
Podríamos entrenar a una red sólo para que aprenda a detectar cruces y
semáforos. O por ejemplo otro módulo que se encargue de predecir cómo va a
continuar prolongándose la carretera más allá de lo que puede ser percibido.
Como ves, aquí ya no sólo hablamos de percepción, sino que también introducimos
la predicción de elementos y comportamientos que van más allá de lo
percibido por los sensores y que añaden un extra de información que será
relevante para la siguiente fase, la toma de decisiones. Y vale, ok, ya sé que
pregunta te ronda la cabeza. ¿De dónde demonios saco yo datos para entrenar a
todo esto? ¿Dónde encuentras un dataset, por ejemplo, de imágenes con intermitentes
etiquetados como encendidos o apagados? Pues aquí es donde entra en juego la
infraestructura de machine learning que cada uno haya implementado, donde las
estrategias pueden ser muy variadas. Para cada problema puedes pagar a un equipo
de humanos que haga manualmente el etiquetado de los datos y cuando tengas
una red que funcione medianamente bien, automatizar este proceso. O como vimos en
el DataCof y de maneras ingeniosas de anotar datos, puedes aprovecharte de tus
usuarios y usar tu sistema de seguridad de capchaps para que sean los que
etiqueten los datos de manera gratuita. Esto, al igual que con otros problemas,
tiene múltiples formas de resolverse y es en la calidad y variedad de los datos,
o sorpresa, donde radica la complejidad y éxito de todo este asunto. Porque, por
ejemplo, mira, esto de aquí, ¿qué es? Una bicicleta, ¿no? Fácil. ¿La has
percibido? Perfecto. Claro, tú conoces que esto es una bicicleta y por tanto
puedes anticipar, puedes predecir cuál será su comportamiento. Por ejemplo, ¿cuál
va a ser su trayectoria? ¿Hacia acá? Vale, si de repente le damos al play y la cosa
sucede así, hay algo que falla. Y es que tú sabes que normalmente una bicicleta
se mueve hacia adelante, pero eso quizás es porque nunca había visto una
bicicleta montada en un coche, o atada en la parte de atrás del maletero, o una
grúa llevando coches, o una grúa llevando grúas, o un coche arrastrando un
barco, o un barco lleno de coches. ¿Se entiende la idea? Esta es la clave de todo y
es que el mundo es muy, pero que muy, variado. Y en este caso, nuestro sistema
de conducción autónomo debe saber actuar en todas y cada una de estas
situaciones. Si dibujamos una distribución que nos
represente los diferentes tipos de eventos que pueden ocurrir en carretera,
seguramente veríamos una distribución como esta, donde un gran cúmulo de eventos
que se repiten, que son frecuentes, estarían situados en esta parte de la
distribución, como que un coche de adelante, una curva a la derecha, una
salida de autopista, etcétera. Sin embargo, el problema es que esta distribución
también contiene un gran número de eventos raros y muy diversos que
también han de ser aprendidos, todos los que se encuentran en la cola de la
distribución. De ahí a que este problema de eventos raros se le conozca como el
problema de la cola larga. Y es por este problema por el que nos encontramos en
la última fase a resolver, la de qué acción tomar, de nuevo con múltiples
opciones. Simplificando el problema, si el input de nuestro sistema son todos los
elementos percibidos, el output será el de aquellas acciones que deberá de
realizar el vehículo para su control. Acciones que serán ejecutadas por un
controlador girando el volante, activando pedales y señalizando correctamente las
acciones que está tomando. Y claro, ¿cómo entrenamos a este sistema para que pueda
aprender a conducir de manera robusta en la complejidad de casos que se pueden
dar? Pues aquí tenemos nuevamente estrategias diferentes. La primera es la
opción supervisada, es decir, tomar datos de conducción real capturados por los
sensores del vehículo y dejar que sea el algoritmo el que aprenda por
limitación cuáles son las acciones realizadas por el humano. Claro está que
la limitación de esta estrategia, como hemos visto antes, está en el volumen y
variedad de los datos de conducción capturados. De manera alternativa, si lo
que se busca es un mayor volumen de horas de conducción para el entrenamiento, se
puede optar por la opción del aprendizaje reforzado dentro de un
simulador construido para que el vehículo aprenda a conducir. Esta
alternativa te permitiría acelerar el entrenamiento tanto como tu capacidad
computacional te lo permita, pero tiene un problema y es que en este caso el
límite superior de situaciones anóbalas que el modelo puede aprender venderá
determinado por la calidad del simulador. Si tu simulador no es capaz de simular
situaciones como esta, ¿cómo puede la gente aprender a responder ante ellas? Son
muchos los esfuerzos que se ponen en construir entornos de conducción cada
vez más realistas, en algunos casos utilizando incluso los avances en redes
generativas adversarias para aproximar al máximo estas simulaciones a la
realidad. Al igual que como ya hemos hablado alguna vez de cara al aprendizaje
por imitación, también podemos utilizar estas redes generativas para generar
situaciones que no están metidas dentro de nuestro dataset, como por ejemplo una
situación donde la metrología sea diferente. Y aquí es donde se está
trabajando, este es el motivo que hace de este problema un problema muy pero que
muy complicado, el saber cómo capturar esta cola de eventos tan anómalas pero
que en carretera puede ser muy real. Y es en la cabeza de esta carrera por
alcanzar el nivel 5 donde encontramos de nuevo diferencias, y es que Waymo ha
optado por una estrategia basada en simulación, confiando en poder mejorar
poco a poco la calidad de los simuladores y poder extraer este
conocimiento para transferirlo a la carretera. Al mismo tiempo que Tesla ha
optado por una estrategia diferente, la de reducir costas en sus vehículos de
maneras ingeniosas, con el fin de penetrar en el mercado y poner el mayor
número de Teslas en carretera, con una flota de vehículos que cada día sigue
sumando horas y horas de datos de conducción, algo que es clave para
alimentar su sistema de aprendizaje por imitación. Y ya lo dije antes, no es tan
importante el quién ni siquiera el cuándo. Si me preguntas a mí mi opinión
no tengo ni idea de cuándo tendremos coches autónomos de nivel 4 o 5 en
carretera, pero sé que se está avanzando y que hay mucho dinero y energía puesto
en hacer que esta revolución se ponga en marcha. ¿Quieres mi opinión? Te la digo,
creo que es cuestión de tiempo que el coche autónomo se haga realidad. Y lo
visto en el vídeo de hoy es sólo una parte de la historia, porque todavía
quedan muchas otras ideas que están sobre la mesa y que si veo que interesas
podemos comentar en futuros vídeos. De momento sólo te recomiendo que si te
interesa el tema pues estés atento a Twitter y a Instagram porque estaré
compartiendo diferentes recursos e ideas que se han quedado fuera del vídeo. Si
te ha gustado este vídeo y eres nuevo por el canal ya sabes que te puedes
suscribir y si te gusta este contenido en YouTube y lo valoras pues puedes
apoyarlo a través de Patreon con una pequeña invitación a una cerveza.
Además ahora si eres Patreon podrás unirte al nuevo grupo de Telegram que
se ha creado sólo para patreons, donde por cierto surgió la idea de este vídeo.
Por mi parte nada más, espero que te haya gustado y eso sí, bienvenido a la
tercera temporada de DotCsv.