logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Tesla es a día de hoy una de las mayores empresas de robótica del mundo.
Sí, como escucháis, de robótica.
Y no, no tiene nada que ver con esto.
No. Pensadlo bien.
El principal producto de una compañía como Tesla son los automóviles.
Coches eléctricos que compiten en una industria donde Tesla ha querido diferenciarse,
buscando resolver la titánica tarea de que estos puedan conducirse solos.
Coches autónomos.
Todo esto de la mano de los avances que el campo de la inteligencia artificial
nos ha ido regalando durante la última década.
Y esta es la cosa.
El vehículo observa el mundo que le rodea.
Lo analiza.
Y en fracción de segundos tiene que tomar la decisión planificar
qué acciones tiene que tomar sobre la mecánica del vehículo
para poder desenvolverse en él.
Son robots.
Elon Musk, CEO de la compañía,
sabe que siendo ellos una de las principales empresas de robótica del mundo,
intentando resolver estos grandes problemas de la ingeniería,
pues está en su deber intentar reclutar a los mejores ingenieros.
Y de ahí el motivo de conferencias como la ocurrida la semana pasada.
El Tesla AI Day.
Una conferencia diseñada por y para ingenieros,
catalogada por muchos, entre los que yo me incluyo,
como una de las mejores conferencias técnicas que ha realizado nunca una compañía.
Al desgranar con todo lujo de detalles
todo el trabajo de ingeniería que Tesla ha ido logrando en los últimos años.
Y bueno, sí, también ocurrió esto.
Y claro, pues habiendo tenido esto,
mucha gente y gran parte de la prensa
se ha quedado únicamente con el maldito robot.
Obviando que realmente lo importante
es todo lo que nos habían contado previamente.
Dicen que cuando el dedo apunta al cielo,
el tonto mira al dedo.
Así que ya os aviso sobre el robot, hablaré al final.
Pero ahora nos vamos a centrar en mirar al cielo.
Y te voy a explicar todos los detalles que Tesla nos regaló en esta presentación.
Ponéos los cinturones,
porque comenzamos.
Por cierto, este vídeo está patrocinado
por la nueva edición del máster ejecutivo en inteligencia artificial
que organiza el IIA,
el Instituto de Inteligencia Artificial.
Una nueva edición de su máster online que va a comenzar en octubre
y que nuevamente os vengo a recomendar desde este canal.
Y sí, como la última vez,
también tengo un código de descuento para el que esté interesado.
Otaré toda la información al final.
Pero antes, vamos con el vídeo.
Mirad, el objetivo de Tesla es conseguir que un coche conduzca solo.
Esto es algo verdaderamente impactante,
no solo por la complejidad técnica que presenta el problema,
sino también por lo disruptivo que podría llegar a ser
tener una tecnología así en nuestras calles.
Pero no es fácil, para nada fácil.
Y de hecho, hay muchas empresas que junto a Tesla
llevan años trabajando en aproximarse a esta idea de un coche que circule solo.
Como por ejemplo, Waymo de Google, Uber, Baidu
y también otras muchas marcas de coches que todos conocemos.
Pero Tesla es diferente.
Bueno, los detalles de esto los explico más a fondo en este vídeo de aquí,
donde analizo con más detalle pues el problema de la conducción autónoma en general.
Y que os recomiendo ver después de este vídeo.
Pero en resumen, pues aquí Tesla, a diferencia de sus competidores,
apuesta por solucionar este problema de conducción autónoma
sin hacer uso de la tecnología LiDAR.
Es decir, el LiDAR es un costoso dispositivo
que lo que permite es trazar un mapa tridimensional
del entorno por el que se mueve el vehículo.
Y en este caso, la estrategia de Tesla pasa por obviarlo,
abratando así el coste de sus vehículos
y aproximando el problema más a la realidad
en la que nosotros, los humanos, pues conducimos nuestros coches,
utilizando principalmente nuestro sistema de visión,
nuestros ojos.
En el caso de Tesla, el sistema Autopilot
hasta hace poco utilizaba únicamente un sistema de 8 cámaras,
un radar y varios sensores de movimiento.
Y con toda esta información, el vehículo lo que tenía que hacer era
apoyarse completamente en algoritmos de visión por computador de aprendizaje automático
para poder dar sentido a todos estos datos,
para entender el mundo que le rodeaba.
Impresionante, ¿verdad?
Bueno, y si te dijera que además recientemente,
con la nueva actualización que ha tenido el sistema Autopilot,
Tesla ha conseguido esto mismo pero quitando del medio al radar,
ala, fuera, ya no hace falta.
Su sistema de inteligencia artificial son tan potentes
que solo con las 8 cámaras y los sensores
logran reconstruir todo el entorno exterior.
¿Cómo lo hacen?
Pues si tuviéramos que responder a esta pregunta hace unos años,
con la primera versión de Autopilot,
la arquitectura de redes neuronales que estaríamos analizando
sería esta, la hidra.
¿Por qué una hidra?
Bueno, pues porque tiene muchas cabezas.
Esta arquitectura cuenta con un cuerpo central
formado por bloques convolucionales
con redes que pueden procesar imágenes de las 8 cámaras localizadas alrededor del vehículo
y reconocer en ellas los patrones necesarios para hacer esta labor de conducción.
Estos patrones reconocidos pueden ser
hey, aquí estos son semáforos, esto de aquí es la carretera,
esto de aquí son peatones.
Y ahora con esta información pues se nutre a las diferentes cabezas de la hidra.
Diferentes arquitecturas que van a tomar como input
cada una de estas características, estos patrones,
y que se van a especializar en resolver cada una una tarea concreta.
Una cabeza para el reconocimiento de objetos,
otra cabeza para el reconocimiento de semáforos,
otra para el reconocimiento de los carriles.
¿Veis?
Con esto es con lo que Autopilot anteriormente
conseguía acabar aprendiendo a ver todo esto.
¿Impresionante, eh?
Pues sí, es impresionante.
Pero como te decía, esto es como funcionaba Autopilot hace unos años.
Y es que el sistema no estaba libre de problemas.
De hecho, uno muy importante es el siguiente.
Aquí, cuando estamos obteniendo predicciones de qué hay en la imagen,
estas predicciones están generadas en el espacio de imágenes.
Es decir, son líneas que están proyectadas en un plano bidimensional.
Pero claro, nosotros lo que necesitamos
es que el coche entienda cuál es la escena tridimensional
para que el vehículo pueda moverse por ella.
Y aquí es donde el equipo de Tesla comprobó
que intentar hacer una reconstrucción tridimensional
de aquella información que la red neuronal estaba prediciendo en dos dimensiones,
pues no generaba los resultados deseados.
Fijaros aquí, por ejemplo, cómo lo que parecen líneas continuas
que se ajustan perfectamente a los carriles de la carretera,
pues proyectadas en tres dimensiones,
se convierten en líneas rotas que no reconstruyen el mapa.
Y de este problema surge un nuevo sistema de visión, el nuevo Autopilot,
que a diferencia del sistema anterior, donde tanto input como output
era información en 2D,
pues ahora lo que se va a buscar es que las predicciones que haga la red neuronal
pues se proyecten ya en el espacio vectorial tridimensional.
Y fijaros que para ello, al igual que antes, vamos a contar con módulos de visión
basados en redes neuronales convolucionales
que van a analizar y extraer cuáles son los patrones observados en cada imagen
por cada una de las cámaras.
Y una vez analizadas, lo que vamos a necesitar será poner en común
toda la información obtenida.
Pues para ello, aquí hacen uso de los potentísimos y omnipresentes Transformers
que van a capturar las características obtenidas por cada módulo convolucional
y mediante mecanismos de auto atención
irán combinando la información de cada uno de ellos
para aprender a decidir qué parte de las imágenes se corresponden
con qué zona del espacio.
Y si todo esto te suena complicado o directamente ni te suena,
no te preocupes, es complicado.
Pero realmente con lo que quiero que te quedes es que funciona.
Y que de ahí obtenemos estas bonitas visualizaciones
donde podemos ver el enorme salto cualitativo que el equipo de Tesla ha conseguido.
Si antes obteníamos una sopa de fideos de colores,
ahora podemos reconstruir toda la información de la carretera
por la que el vehículo circula.
Mola, ¿eh?
Sabiendo esto, creo que ahora entenderás de dónde surge el nuevo sistema de visualización
que con la nueva actualización ha aparecido recientemente en los coches de Tesla.
Y la cosa es que esta mejora en la arquitectura no solo reconstruye mejores mapas,
sino que también da mayor robustez a la hora de detectar qué objetos hay en él.
Fijaros por ejemplo esta visualización que mostraron
donde se puede ver cómo el sistema multicámara, el nuevo, el que está en color azul,
es mucho más preciso a la hora de reconocer la localización de los coches
que por su cercanía a las cámaras
acaban teniendo diferentes partes ocultas en cada imagen.
En comparación con el sistema anterior, en naranja,
que podemos ver cómo acaba siendo mucho más impreciso con muchísimos parpadeos
y no sabiendo resolver correctamente cuál es la posición de los vehículos.
Esta robustez además también se ha incrementado con otra mejora,
y es la incorporación de una memoria al sistema.
Ya esto es algo que hemos hablado en varias ocasiones en el canal,
y es la importancia de mantener una coherencia temporal en aquello que estamos analizando.
¿Qué significa esto?
Pues mira, que si en una imagen detectas un coche,
y luego un coche, y luego coche, y luego no hay coche,
pues no asumas que realmente el coche ha desaparecido,
porque la realidad es que aún sigue habiendo coche, y tú deberías recordarlo.
Esta falta de memoria es lo que produce que en la visualización
que hemos visto antes del sistema anterior de Autopilot,
pues exista un fuerte parpadeo en aquellos elementos
que son detectados por las redes neuronales.
Esto ocurre porque tras cada fotograma
el sistema se olvida de qué es lo que ha detectado previamente,
y esto da inconsistencia en las predicciones,
haciendo que exista este parpadeo donde a veces algunos elementos se detectan,
y otras veces no.
Además, sin memoria, pues no puedes estimar, por ejemplo,
la velocidad de los objetos que se mueven a tu alrededor,
o recordar que había atrás un objeto oculto,
o tener presente cuál era la señal de tráfico que has visto hace unos segundos.
Hace falta memoria.
Y en este caso la memoria la consiguen
almacenando aquellos patrones, aquellas características,
que han sido obtenidos de los módulos de visión multicámaras
en diferentes momentos del tiempo,
y dejando que haya un módulo de vídeo que basados en redes neuronales recurrentes,
se encarga de analizar la temporalidad de dichos patrones,
guardando una memoria de qué es lo que ve y ha visto el coche,
y situando cada elemento que predice en un espacio tridimensional.
Quiero que veáis esta espectacular reconstrucción
que el vehículo de Tesla va logrando en el mapa por el que se va moviendo,
memorizando las calles y carriles,
y observando el paso de los coches que se sitúan cercanos a él.
¡Wow!
Bueno, ¿y ahora qué? ¿Cómo se conduce el coche?
Si con la visión el vehículo ha aprendido a ver el mundo,
ahora será con la planificación con la que el vehículo
podrá decidir cuál será su plan de acción para moverse por dicho mapa,
y por ende, cómo se va a acabar moviendo en el mundo real.
Este módulo, con el paso de los años,
ha permitido que Autopilot poco a poco puede ir haciendo cada vez más trucos,
por ejemplo, cambiar de carril, salir de una carretera,
y en la fase beta actual poder incluso circular por ciudades
con toda la complejidad que esto conlleva.
Y esto funciona de esta manera,
puesto que en la fase de visión hemos creado un modelo físico de nuestro entorno,
con toda la información necesaria de qué tenemos alrededor y a qué velocidad se mueve,
el vehículo de Tesla ahora es capaz de trazar una gran cantidad de posibles opciones
para la maniobra que quiera hacer.
Cambiarse de carril y salir por allí.
Vale, ¿qué es mejor?
Cambiar rápido y quedarse detrás de este coche,
o acelerar, adelantar y luego cambiar.
¿Qué opción hago?
Así el vehículo, en una pequeña fracción de segundos,
es capaz de simular todas estas opciones
y ejecutar aquella que optimice la seguridad, facilidad y comodidad para el pasajero.
En este caso, la planificación que se realiza
es de toda la secuencia de acciones necesarias para poder completar la maniobra.
Pero claro, en otras circunstancias,
pues es imposible hacer una planificación de todas estas acciones,
puesto que a cada movimiento tenemos que ir improvisando.
¿Qué podemos hacer en ese caso?
Pues de nuevo, para estos casos es una buena idea volver a hacer uso del deep learning.
¿Por qué?
Mira, tal y como lo ilustran, aquí tenemos un escenario sencillo,
donde, por ejemplo, un coche tiene que aprender a hacer las maniobras correctas
para llegar a su plaza de aparcamiento.
Eso sí, evitando los conos que se pueda encontrar en la carretera.
En este caso, las acciones que el coche debe realizar
se pueden obtener a través de algún algoritmo de búsqueda de camino,
como por ejemplo, a estrella.
Este es un algoritmo que seguramente muchos de vosotros
habéis programado en la universidad
y que lo que hace es buscar cuál es el camino
que poco a poco va minimizando nuestro objetivo,
que en este caso es la distancia al aparcamiento.
Y en este caso con un resultado bastante caótico, ¿vale?
Vemos que el coche, con sus acciones,
no consigue entender cómo se tiene que mover a través de los obstáculos,
generando un montón de maniobras
que creo que algún conductor novel aquí
puede empatizar con esta forma de aparcar.
Esto se puede mejorar, ¿vale?
O sea, por ejemplo, podríamos incorporar información del navegador
que nos indique cuál es la ruta de la carretera hasta el aparcamiento,
haciendo que ya en este caso,
pues el coche no se dirija a maniobrar a esta zona de aquí.
Pero aún así vemos que al coche le cuesta bastante evitar los obstáculos,
generando de nuevo un montón de correcciones
que un conductor humano pues normalmente evitaría.
Como vemos, ninguna de estas dos opciones son válidas.
Y al final la solución por la que se ha optado
pues es similar a la que en el campo del deep learning
se ha venido utilizando para enseñar a inteligencias artificiales
a que aprendan a jugar a videojuegos.
Una estrategia donde vamos a dejar que sean redes neuronales
las que aprendan a pronosticar cuál será el próximo estado
donde el vehículo se va a encontrar
y cuál será el resultado de las acciones que tome.
Haciendo esto, el vehículo puede estimar
en qué estados futuros se va a encontrar
y cuál es la acción óptima que debería realizar en cada uno de ellos.
Y de esta manera podemos ir construyendo un árbol de posibilidades
que la acabe acercando al objetivo que busca.
Si dentro de este árbol donde se simulan algunas de las opciones
encontramos alguna que nos aproxime a lo que estamos buscando,
pues la ejecutamos.
Y de esta manera podemos ver que el uso de esta estrategia
pues nos permite que el vehículo pueda ir trazando poco a poco
la ruta óptima hacia su destino, evitando cada uno de los obstáculos
y con un número mucho menor de acciones.
Así ya no hay misterios.
Ya conoces cuál es toda la arquitectura de inteligencia artificial
que sirve de cerebro al autopilot de Tesla.
Toda la cadena de procesamiento
que hace que solamente 8 imágenes capturadas con cámaras
se conviertan finalmente en una planificación inteligente
de cómo el volante, acelerador y frenos tienen que accionarse.
Pero queda una pregunta importante que hacer.
¿Cómo demonios alimentas a esta bestia?
¿Cómo la entrenas?
Tenéis que saber que en el mundo del deep learning
diseñar el modelo correcto no es suficiente para lograr tu objetivo.
El modelo es solo uno de los factores claves
donde los datos y la computación pues también son piezas fundamentales.
Y esto Tesla lo sabe muy bien.
De hecho, en mi opinión, creo que una de las ventajas competitivas
más importantes que tiene Tesla
es la enorme cantidad de datos de conducción
que tienen que tener almacenada.
Pensad que por cada vehículo que Tesla pone en circulación
ésta se convierte en un nuevo generador de datos para la empresa
donde el propio conductor pues servirá de etiquetador de lo que está conduciendo.
Su conducción podrá ser registrada y analizada.
E incluso en modo autopilot,
si una mala decisión del coche es corregida manualmente,
ésta se va a convertir en un nuevo data point que es importantísimo
para que la empresa analice y depure qué es lo que ha pasado.
Para mí, esta es la gran ventaja de Elon Musk frente a sus competidores.
De cada clip de conducción capturado de sus clientes,
la empresa podrá hacer un análisis en sus supercomputadores
para etiquetar automáticamente qué es lo que se está viendo.
Pero claro, recordáis que antes hemos hablado
de que las predicciones en los módulos de visión
ahora se hacen directamente en un espacio tridimensional.
Esto significa que el etiquetado de estos datos
para poder hacer el entrenamiento
tienen que estar planteados en este espacio tridimensional,
lo cual hace que se vuelva mucho más complicado el proceso de etiquetación
que si lo tuviéramos que hacer pues sobre el vídeo original,
sobre una imagen bidimensional.
Y claro, si este etiquetado lo tienes que hacer manualmente
pues se vuelve un coñazo.
Es por ello que el equipo de Tesla nos enseñó en su presentación
también diversos métodos de autoetiquetado
que utilizan diferentes técnicas que algunas de ellas os sonarán.
Por ejemplo, el uso de los neural radians fields,
esta técnica que se popularizó tras el paper de Nerf
y que os expliqué aquí en el canal hace más de un año.
Como veis, al final todo lo que explico aquí en el canal
se acaba aplicando en el mundo real.
En este caso ellos utilizan esta técnica
para que aprenda a reconstruir tridimensionalmente
cuál es la posición de la etiqueta dentro de este espacio vectorial.
Así ahora, por ejemplo, ellos pueden tomar la información
capturada por un vehículo al pasar por una localización determinada
y reconstruir su mapa.
Y tomar la información de otro vehículo que pase por esa misma zona
y también reconstruir otra parte del mapa.
Y otro vehículo, otra parte del mapa.
Y así repetidamente para ir reconstruyendo la información
de una misma localización desde el input dado por diferentes vehículos,
teniendo así la oportunidad de obtener una representación
mucho más completa del mapa.
Con esto y con más análisis de localización de objetos, segmentación
y todo esto hecho en sus servidores,
conseguimos reconstrucciones tan completas como estas de aquí.
¡Guau!
Pero aún así, Tesla sabe que con los videos capturados por tu flota de vehículos
pues no siempre vas a tener todas las situaciones posibles
a las que un coche se pueda enfrentar.
A lo mejor no tienes datos de qué hace un conductor humano
cuando hay dos personas corriendo tras un perro por la autopista.
O cuando cruza un alce por la carretera.
¿Cómo podemos entrenar al coche en estas situaciones
para las que no contamos con datos?
Pues tal y como ves aquí, simulándolo.
Porque sí, esto que estás viendo aquí y ahora no es un video real,
sino una simulación.
El nuevo GTA VIII creado por Tesla
que ahora le va a permitir poder generar datos artificiales
de cualquier situación que se les ocurra.
Algo de lo que ya hemos hablado en el canal con anterioridad.
Pues por ejemplo en el video sobre Minecraft en la vida real.
Y es que la ventaja de poder contar con simuladores cada vez más reales,
usando por ejemplo técnicas de deep learning como estas,
es que así ahora podemos hacer uso de estos simuladores
para poder entrenar a nuestras inteligencias artificiales.
La ventaja de utilizar simuladores es que todo está simulado
y que por tanto ya de origen sabemos cuál es la profundidad tridimensional del escenario,
a qué corresponde cada objeto, si es carretera, si es coche, peatón, todo.
Aquí tu única preocupación tiene que ser recrear aquellas situaciones
que tú creas que te pueden faltar en tu dataset
y comprobar que todo esté perfectamente calibrado
para que lo que virtualmente vayan a registrar tus cámaras,
lo que sería nuestro dato de entrada,
pues realmente se parezca a lo que realmente va a capturar el coche
una vez lo pongamos a conducirse por las carreteras.
Mirad por ejemplo en este caso, pues como para diferentes niveles de exposición,
lo que se registra en una cámara en el mundo real
y lo que se registra dentro del simulador es casi idéntico.
Todo esto es complejísimo
y posiblemente tú aquí estés pensando que entrenar una arquitectura de deep learning
tan compleja como hemos visto para tal cantidad de datos que podemos generar
pues tiene que requerir una gran capacidad de computación, ¿no?
Pues sí, estás en lo cierto.
Y de ahí que Tesla nos guarda una parte de su presentación
para hablarnos de su nuevo hardware,
el nuevo chip de Uno creado por ellos específicamente
para el entrenamiento de inteligencia artificial
y que están integrando en módulo de entrenamiento con 25 de estos chips,
dando así un diseño modular a unas celdas que son capaces de proporcionar
nueve petaflops de procesamiento.
La idea es que estos módulos de entrenamiento
pues puedan ser conectados unos con otros agregándolos
y de ahí su diseño modular
para en el futuro poder dar a luz al supercomputador Dojo
que cuando termine de estar listo
dicen ellos será el ordenador de entrenamiento de inteligencia artificial
más rápido del mundo.
Y con esto quiero que os deis cuenta del tremendo viaje
que Tesla nos ha regalado a través de los departamentos clave de su compañía,
Inteligencia Artificial, Software, Hardware.
Los tres pilares fundamentales sobre los que se sustenta un sistema como Autopilot
que sueña algún día en convertirse en el cerebro de la conducción autónoma completa.
Y tenéis que entender esto.
De momento el sistema Autopilot con conducción completa
que te permite moverte con el vehículo dentro de una ciudad
realizando todas las maniobras
aún se encuentra en fase de prueba
solamente por unos pocos usuarios que han podido acceder a la beta.
Y claro, como en toda beta
pues este sistema nos puede mostrar que es capaz de dar todo lo que ofrece
en la mayoría de circunstancias
pero también teniendo algunos momentos de debilidad.
Errores entendibles en un producto que todavía está en fase beta
pero que claro, en el contexto de este problema de la conducción autónoma
pues tienen que estar perfectamente pulidos antes de la salida al público.
Y yo por mi parte muy satisfecho por el trabajo que han realizado
y sobre todo por haberlo mostrado públicamente de manera tan detallada.
Y quizás por ello creo que vais a entender
por qué mi reacción sobre el anuncio del TeslaBot
pues no sea tan optimista como la de la mayoría de medios y entusiastas.
Sí, me parece una idea atractiva.
Y como ya he discutido en Twitter
aunque no creo que apostar por un diseño humanoide sea lo más inteligente
¿Qué cojones?
Es un robot al estilo ciencia ficción.
Eso mola.
Además y siendo ya más realistas
pues creo que esto va a dar un impulso
y va a dinamizar un mercado en los próximos años
que ya está empezando a enseñarnos cosas muy interesantes.
Pero creo que se han equivocado al anticiparse tanto presentando una idea
sin apenas haber desarrollado nada.
Sin nada más que mostrarnos que esto de aquí
y un par de datos técnicos que seguro cambiarán en el tiempo
y eclipsando todo el trabajo bien hecho que ya tienen
y nos habían presentado hasta este momento.
Evidentemente toda la información que os he contado hoy
no es tan mainstream como podría ser un robot humanoide.
Y en ese sentido la campaña de marketing está bien hecha.
Pero creo que todo esto merecía más atención.
En cualquier caso no me quiero extender más sobre el Tesla Bot
y el panorama de los robots humanoides
porque quiero tratar este tema en concreto
junto a los avances de Boston Dynamics recientes
en un próximo vídeo.
Un ejemplo que nos enseña del enorme potencial
que una tecnología como la IA nos puede aportar en nuestros proyectos
si aprendemos a utilizarla correctamente.
Y es por eso que quería aprovechar también este vídeo
para contaros más sobre la nueva edición
que está organizando el Instituto de Inteligencia Artificial
en su nuevo máster ejecutivo sobre IA.
Esto es interesante porque es un máster que no se enfoca
en la parte técnica, es un máster no técnico,
no te van a enseñar a desarrollar y a programar
los modelos que vemos aquí en el canal,
sino que te van a enseñar a cómo aplicarlos en tus proyectos,
en tu negocio de manera exitosa.
Algo que creo que en muchas otras formaciones
pues no suelen prestar atención y que creo que es fundamental.
Y esto además lo vais a hacer de la mano de tres profesores
que tienen una sobrada experiencia tanto en la parte académica
como en la parte industrial.
A uno de ellos lo tuvimos aquí en el canal entrevistado,
Andrés Torrubia, en una entrevista que recomiendo que veáis
si no lo habéis visto todavía porque es excelente.
Y que su experiencia pasa pues de haber emprendido en varias empresas,
a haberse convertido actualmente en Kaggle Master
ganando numerosas competiciones de deep learning.
Ya os digo que va a ser una formación de la mano de expertos
y que a esto además se le suma que vais a contar con una serie de ponencias
de la mano de muchas otras personas que también están ligadas
al mundo de la IA desde diferentes perspectivas,
entre ellas en ese listado estoy yo.
Hola, hola, estoy aquí humildemente en este listado de cracks.
En mi caso, como también promocioné la edición anterior de este máster,
pues tuve la suerte de poder estar en el evento de clausura
y ya os digo que para mí fue toda una experiencia
poder estar con todos estos ponentes
y también con los alumnos que habían terminado
porque me hizo sentir que estaba como una especie de caldo de cultivo
de muy, pero que muy potente de ideas muy interesantes
de gente con ganas de emprender y empezar a aplicar lo que habían aprendido
y que posiblemente se convierten en actores de los pasos
que tenemos que dar a futuro dentro del mundo de habla hispana
a la hora de implementar inteligencia artificial de forma efectiva.
¿Os interesa y queréis participar en este máster?
Pues os digo que tenéis suerte
porque en este caso contáis con un código de descuento
que han asignado a este canal de YouTube.
A DotsCV podéis utilizar el código de descuento DotsCV300
y tendréis un descuento de 300 euros en el precio de la matrícula.
El máster es completamente online, se puede matricular cualquier persona
y ya están cerrando plazas.
Esto comienza en octubre, así que corred.
Y por mi parte, nada más.
Si os ha gustado este vídeo os invito a que lo compartáis
para mostrar el pedazo de trabajo que está haciendo Tesla
y bueno, si os ha gustado mi trabajo
pues podéis apoyar todos estos contenidos a través de Patreon.
Os dejo también la información abajo en la caja de descripción.
Nada más, nos despedimos con más inteligencia artificial la próxima semana.
¡Adiós!