This graph shows how many times the word ______ has been mentioned throughout the history of the program.
Es hora de hablar del futuro del futuro.
Hablemos del futuro de la inteligencia artificial.
Estamos viviendo momentos extraños,
al mismo tiempo que en los dos últimos años hemos vivido el periodo en el que la inteligencia
artificial ha ofrecido su mayor potencial, llegando a más y más usuarios que nunca
y donde más promesas en el aire hay sobre lo disruptiva que podría llegar a ser esta
tecnología.
Al mismo tiempo, convivimos con titulares que hablan de que la burbuja de la inteligencia
artificial podría estar a punto de explotar.
Pero en realidad, como ya sabéis, cuando hablamos de inteligencia artificial, realmente
de lo que tenemos que hablar es de Machine Learning, la revolución donde las máquinas
aprenden a hacer cosas, una rama del campo de la inteligencia artificial que tampoco es
nueva y que se viene investigando desde casi casi los comienzos de la computación.
No, si algo ha detonado la revolución de la inteligencia artificial en los últimos
años es la revolución del Machine Learning y más concretamente el Deep Learning, el
uso efectivo de redes neuronales artificiales para el proceso de aprendizaje automático.
Y como ya hemos comentado muchas veces en este canal, fue en 2012 cuando dio comienzo
el boom del Deep Learning y el resto ha sido historia.
Ahora, el Deep Learning de hace diez años no se parece tanto al Deep Learning que se
practica ahora. En la última década, la forma de practicar Deep Learning era más o
menos así. Hey, tengo un problema que quiero resolver. Quiero conocer si en una fotografía
aparece una hoja sana o una hoja dañada, un problema de clasificación muy específico
para el que podíamos entrenar a una red neuronal a resolver dicha tarea.
Y para hacerlo necesitábamos datos etiquetados, un conjunto de imágenes donde algún
experto en hojas se hubiera sentado a decir, mira, esta hoja de aquí está sana y esta
no, y esta no, y está así.
Con todos estos datos se entrenaba mediante aprendizaje supervisado a la red neuronal
desde cero para que resolviera dicha tarea.
Y si el entrenamiento iba bien, pues la red neuronal aprendería a generalizar su tarea,
incluso para imágenes de hojas que no hubiera visto previamente.
Funcionaba, era práctico y es un ejemplo perfecto de lo que a partir de ahora voy a
pasar a denominar Deep Learning 1.0.
Aquí las redes neuronales se utilizaban para resolver una única tarea específica.
Podría, por ejemplo, usarse esta red para clasificar flores sanas y flores enfermas?
Pues no, no era su tarea, sólo la habíamos entrenado para clasificar imágenes de hojas
y por tanto sólo podría ser única y exclusivamente dicha tarea.
Si querías que clasificara flores, pues tenías que de nuevo sentarte y etiquetar un gran
dataset de flores y entrenar la red para ello.
Y aquí podéis daros cuenta de una de las grandes limitaciones del aprendizaje supervisado
y es que somos dependientes de contar con un dataset que esté perfectamente etiquetado.
Y en muchos casos etiquetar correctamente un dataset pues tiene como cuello de botella
al propio etiquetador humano.
El cuello de botella para la inteligencia artificial éramos nosotros y de ahí surgieron
tendencias como la de deslocalizar a países como China o India granjas de etiquetación de
datos. Todo esto ocurriendo en paralelo al mismo tiempo que los investigadores de Deep
Learning ya estaban buscando una solución a este problema.
La idea de utilizar modelos preentrenados, es decir, si tú tienes dos tareas de
clasificación, pues clasificar hojas y clasificar flores, por qué empezar el entrenamiento
desde cero? Al final son tareas que tienen cierta similitud.
Lo que se propuso es que antes de hacer tu entrenamiento, pues ya podíamos hacer un
pre entrenamiento en el que coger a una red neuronal de clasificación de imágenes que
aprendiera a clasificar un montón de imágenes de todo tipo.
Flores, hojas, perros, gatos, aviones, camiones, de todo.
En definitiva, una red neuronal que aprendiera a ver.
Y luego, tomando esa red neuronal como base, pues hacer un pequeño entrenamiento final
con unos datos para ajustarlo al problema que queríamos resolver, clasificar hojas o
clasificar flores. Y esto fue un salto brutal y un punto de inflexión, porque estábamos
pasando de redes neuronales que sólo cumplían una única tarea a redes neuronales que ahora
se podrían adaptar a múltiples tareas, redes neuronales multitarea.
Un fenómeno que nos llevo un poquito más hacia el futuro, hacia lo que para mí se
consideraría el Deep Learning 2.0, la etapa actual que estamos viviendo.
Nos situamos ahora entre 2018 y 2020, periodo en el que esta idea de pre entrenar a modelos de
inteligencia artificial para cumplir múltiples tareas, pues empezó a conquistar otras áreas
de estudio más allá de la visión por computador, áreas como, por ejemplo, el procesamiento
del lenguaje natural.
Una área de estudio dedicada a que la máquina pudiera entender nuestro lenguaje y también
pudiera generarlo, algo que ya sabéis por qué camino nos ha llevado.
Y aquí la multitarea entró fuerte.
A lo mejor antes tú entrenabas a una red neuronal para analizar el sentimiento de un texto,
otra red para que aprendiera a hacer un resumen y otra red para traducir una frase de español al
inglés. Pero ahora con la llegada de los enormes modelos del lenguaje, un mismo modelo como
GPT-3 podía encargarse de todo.
Creedme, la multitarea está en el ADN del Deep Learning 2.0 y si no fijaos otro ejemplo,
generación de imágenes.
Si recordáis, en 2017 era habitual ver modelos generativos entrenados específicamente para
generar caras o para generar pájaros o para generar flores.
Cada modelo estaba específicamente entrenado para generar una cosa y ahora en 2023 la norma es
encontrarnos con modelos como Mid Journey o Stable Diffusion capaces de generarlo todo.
¿Qué ha pasado aquí? ¿Qué tecle hemos tocado de repente que nos ha hecho pasar en muy poquitos
años de inteligencias artificiales tan específicas a inteligencias artificiales multitarea?
O la cosa está en que si antes os comentaba que el protagonista en el Deep Learning 1.0 era el
aprendizaje supervisado, ahora en este periodo que estamos viviendo en el Deep Learning 2.0 el
protagonista, el rey, The King, es el aprendizaje autosupervisado.
¿Por qué? Bueno, pues porque en el aprendizaje autosupervisado la idea es que en vez de tener
a humanos etiquetando datos para cada tarea, aquí lo que se plantea es que sea el propio ordenador el
que pueda generarse automáticamente la tarea de la que poder aprender.
¿Cómo? Pues mira, en internet hay texto, mucho texto, y con ese texto el computador puede jugar
a enmascarar una o varias palabras e intentar aprender a predecir qué hay ahí, o de forma similar
podemos entrenar con imágenes. Podemos coger todas las imágenes de internet, enmascararlas
de alguna forma o corromperlas con ruido y dejar que la IA aprenda a deshacer el destrozo para así
poco a poco aprender la naturaleza y los patrones que conforman a una imagen.
Esta es la clave, que la máquina pueda etiquetarse automáticamente sus propios datos,
aprendizaje autosupervisado es lo que ha permitido superar el cuello de botella del
que hablábamos antes. Ya no necesitas etiquetadores humanos, con lo cual podemos
coger todo lo dato de internet y entrenar a inteligencias artificiales mucho más potentes
y más generales, capaces de cumplir un mayor rango de tareas. Un concepto que a día de hoy
se ha dado a conocer como modelos fundacionales. Todo esto que estamos comentando funciona y son
las claves que están detrás de grandes modelos que utilizamos hoy en día como ChatGPT o Stable
Diffusion. Los modelos fundacionales y el aprendizaje autosupervisado están a la orden del día y son
los principales responsables de la revolución del deep learning 2.0 que estamos viviendo
actualmente. Pero en este vídeo no veníamos a hablar del pasado ni del presente, sino del futuro.
Vamos a ello.
Si os dais cuenta, uno de los factores clave en el repaso histórico que hemos hecho han sido los
datos. Ya sean etiquetados por humanos o etiquetados por la propia máquina. Pero ¿y si pudiéramos ir
más allá? ¿Y si pudiéramos entrenar a una inteligencia artificial con datos que no sean reales?
Datos generados. Si lo pensáis, el principal éxito del deep learning 2.0 es lo que se ha
bautizado como IA generativa. Lo hemos dicho, ahora contamos con modelos que generan texto,
código de programación, imágenes y audio realista. ¿Qué pasaría entonces si usáramos lo que estos
modelos generan para entrenar a otros modelos más potentes? Pues parecería raro, ¿no? Que
pudiéramos entrenar a una inteligencia artificial con lo que otra inteligencia artificial está
generando. Tal y como escuché esta semana sería como la IA comiéndose su propia caca. Aquí la
intuición nos dice que como mucho podríamos conseguir un modelo que igualen rendimiento al
modelo original, pero no que lo supere, ¿no? Pues depende, ya que fijaos que cuando nosotros
utilizamos IAs generativas como Mid Journey, nosotros seleccionamos de las cuatro opciones
que nos ofrece la IA aquella que más nos gusta. O por ejemplo en chat GPT, si la conversación no
nos interesa, la abandonamos. Es decir, nosotros que hemos encontrado valor en estas herramientas nos
hemos convertido de facto en etiquetadores que vamos seleccionando de todo lo que la IA genera,
aquello que está mejor y descartando aquello que está peor. Estamos ayudando a filtrar los
datos. Con lo cual, entre más utilizamos estos modelos, más datos filtraremos. Datos nuevos,
generados y filtrados que ahora se podrán utilizar como un nuevo dataset de mayor calidad
para entrenar a un modelo incluso más potente, que aportará más valor a los usuarios, con lo
cual atraerá a más gente que filtrará más datos que generarán. Es un ciclo virtuoso que
ha empezado a rodar con mucha más fuerza y mucha más velocidad desde 2023, cuando la mayor parte
de la sociedad ha empezado a interesar en todas estas herramientas. Cada vez tenemos más datos
sintéticos que nosotros hemos ayudado a financiar porque hemos pagado por generarlos y a filtrarlos
y que servirán para entrenar a modelos generativos cada vez más potentes.
Una cuestión discutida en filosofía nos habla de cómo, por mucho que tú puedes estudiar de
una manzana toda su teoría, su composición, su biología, la química de los enlaces de las
moléculas, todo. No será hasta que la veas, la vuelas, la saborees, que tendrás un conocimiento
más completo y experiencial de ella. Y esto es algo que ocurre hasta con las inteligencias
artificiales más inteligentes que entrenamos a día de hoy. Yad GPT, por ejemplo, todo su conocimiento
interno de lo que es una manzana lo sabe porque lo ha leído durante su entrenamiento. Y sí,
ha leído muchísimo, sabe que es roja, dulce, redonda, puede tener una idea de cómo es,
pero nunca la ha visto experimentado de una forma que no sea a través de la proyección de texto
que nosotros le hemos dado. Y aquí la multimodalidad resuelve este problema. Esta es una tendencia que
también podemos englobar en lo que estoy denominando Deep Learning 2.0 y que no tenemos
que confundir con el concepto de multitarea que hemos visto antes. La multitarea, como hemos visto,
es que una IA pueda resolver múltiples tareas, lo dice su nombre. Y la multimodalidad lo que
nos habla es de una IA que puede nutrirse de múltiples fuentes de datos de distinta naturaleza,
imágenes, audios, vídeos, textos, señales de sensores, todo al mismo tiempo. Hacer esto
te permite no solo leer sobre qué es una manzana, sino también ver visualmente cómo es,
inferir su dureza al escuchar un mordisco o olerla, entre comillas, si contamos con los
sensores químicos adecuados. Es decir, aprender una representación mucho más cohesionada y completa
del mundo real. Lo que nos faltaría por ver en los próximos años sería esta idea de modelo
fundacional multimodal, un futuro GPT-5 que no solo se entrene con todo el texto de internet,
sino que también se pueda nutrir de imágenes, vídeos, audios, de toda la fuente de conocimiento
que tenemos y que demuestran la rica naturaleza de nuestro mundo. Pues tienes que saber que esto
de usar datos sintéticos para entrenar a modelos fundacionales mayores o la multimodalidad para
darle una visión más cohesiva del mundo real es solo mi apuesta a corto plazo. Es decir, sería
mi apuesta para la etapa actual que estamos viviendo, la del deep learning 2.0. Pero
y si te dijera que otra ramificación se abre hacia un futuro más interesante y prometedor?
Hablemos del deep learning 3.0. Hasta ahora hemos hablado de inteligencias artificiales entrenadas
con datos etiquetados por humanos, con datos etiquetados por máquinas o con datos generados
por máquinas. Pero, ¿y si entrenáramos a inteligencias artificiales sin datos?
En el mundo del machine learning desde los comienzos existe otra rama que está ahí,
latente, cumpliendo grandes objetivos poco a poco pero sin tener un protagonismo real en
las herramientas que usamos en nuestro día a día. Por supuesto estoy hablando del aprendizaje
por refuerzo o reinforcement learning. El reinforcement learning es quizás la forma
más pura de adquisición de conocimiento en el deep learning. Y es que aquí la inteligencia
artificial no aprende de observar datos preetiquetados para un problema que podrían
sesgarla en su aprendizaje. No, en este esquema de aprendizaje la IA aprende desde cero,
explorando sus posibilidades y descubriendo nuevas estrategias ya sea en un simulador o
en el mundo real, probando y aprendiendo de sus errores y de sus logros. Uno de los éxitos más
famosos de este esquema de aprendizaje que seguramente recordaréis es el de AlphaZero,
donde la IA fue capaz de aprender desde cero sin observar ninguna partida humana real a jugar a
juegos de mesa como el Go, el ajedrez y el Shogi, pasando de jugar de forma aleatoria a dominar
estos juegos hasta poder vencer a campeones del mundo. ¡Wow! También hemos hablado en otras
ocasiones de otros éxitos del aprendizaje por refuerzos, principalmente impulsados por DeepMind,
donde la IA ha sido capaz de encontrar formas más óptimas de codificar vídeos de YouTube
para consumir menos ancho de banda, o de controlar los imanes que dan forma al plasma en el interior
de los reactores de fusión, o por ejemplo también encontrar nuevos algoritmos matemáticos para la
multiplicación de matrices. Es decir, si en el Deep Learning 2.0 la estrategia que teníamos era
la de entrenar a estos enormes modelos fundacionales como GPT-4 con un montón de datos de internet para
poder generar conocimiento a partir de que estos combinen estos datos de forma novedosa,
en el aprendizaje por refuerzo la cosa es diferente, porque aquí la IA se embarcará
en un proceso de exploración, a menudo sin datos previos, para buscar soluciones en un
amplio espacio de posibilidades, lo que a veces puede llevarle a descubrimientos fuera de los
paradigmas actuales, alcanzando nuevo conocimiento. Y visto así, el reinforcement learning parece una
muy buena idea, pero no es tan sencillo. Para funcionar bien el reinforcement learning necesita
lo que necesita la IA, un montón de datos, un montón de iteraciones donde, ya sea en simulación
o en el mundo real, por ensayo y error la inteligencia artificial puede ir aprendiendo
poco a poco su tarea. Hacer esto en el mundo real es muy costoso porque el tiempo va a un
segundo por segundo y además las cosas suelen romperse, y es por eso que vemos que muchos de
los casos de éxito de hoy en día ocurren dentro de simulaciones. Y es que cada vez son más los
ejemplos de robótica que consiguen aprender sus objetivos en simulación con aprendizaje por
refuerzo y luego los transfieren exitosamente al mundo real, para cumplir su objetivo en el mundo
físico que es donde nos interesa. Hemos visto robots que han aprendido a levantarse, aunque
le tiren una y otra vez, para poder jugar una liguilla de fútbol, tal y como os enseñé en
este vídeo que tenéis en el canal. Recientemente también hemos visto drones capaces de volar en
pista con un vuelo casi perfecto ganando contra campeones del mundo. Ojito a esto.
Y estamos empezando a ver ejemplos de robots que en el mundo real, no en simulación,
están logrando aprender habilidades ya no en días de entrenamiento, que era lo habitual,
sino en cuestión de horas. Y para ejemplo tenéis el de este perrete robótico, que tal y como estáis
viendo ha aprendido a andar desde cero en cuestión de una hora, consiguiendo aprender a coordinar
todos sus controladores para alzarse en pie y andar. Para mí, la robótica impulsada por el
aprendizaje por refuerzo va a ser la gran protagonista del deep learning 3.0, pero eso
no quita que la robótica actualmente se esté beneficiando de los grandes éxitos que estamos
viviendo en la etapa actual, en la del deep learning 2.0. Y es que ya sabéis que los enormes
modelos del lenguaje como GPT-4 o Palm 2 poseen un gran conocimiento del mundo que les permite
planificar acciones con mucho sentido común para resolver una tarea, a pesar de solo haber
interactuado por ahora con el mundo a través del texto. Pues lo que se está comprobando es que
utilizar a estos enormes modelos de lenguaje a modo de cerebro artificial para estos robots funciona.
Y este estudio de robótica de Google DeepMind titulado SayTap así lo demuestra. Imaginad un
robot donde su movilidad no depende de que tengamos que programar su control con
instrucciones complejas, sino que directamente podamos utilizar instrucciones con lenguaje
natural. Poder decirle al robot avanza un poco o camina más despacio y que el modelo del
lenguaje traduzca estas palabras en acciones concretas que el robot ejecutará, funcionando
como un puente entre nuestras palabras y los movimientos del robot. Esto aumenta
enormemente la versatilidad a la hora de comunicarnos con el robot, porque por ejemplo
ahora le podríamos decir oye actúa como si coje aras de la pierna izquierda y el robot sabrá
coordinar sus controladores para caminar de esta forma o camina como si el suelo estuviera muy
caliente y que el robot lo entienda y haga esto. Cosas como esta están empezando a funcionar o
también tenemos otros proyectos como RT2 también de DeepMind. Otro caso de robótica que de nuevo
se nutre del conocimiento de un enorme modelo de lenguaje, sí, pero también de un modelo de visión.
Aquí estaría apareciendo la multimodalidad que mencionábamos antes. Así que tendríamos
un modelo de lenguaje para planificar, un modelo de visión para poder observar y con esto se
generarían instrucciones de control para un robot que ahora será capaz de cumplir un mayor
rango de instrucciones usando sus ojos. Así que la robótica, ya sea por los
modelos fundacionales multimodales o por el aprendizaje por refuerzo,
pues podría estar entrando en su época dorada, el salto de la inteligencia artificial del mundo
digital al mundo físico real. Pero los avances del aprendizaje reforzado no solo están destinados
al mundo de la robótica. Como hemos visto antes, su valor se encuentra a la hora de
generar también soluciones novedosas y conocimiento original ante el reto que le propongamos. Y esto
es algo que podría tener un impacto directo sobre la ciencia. Imaginad por un momento una
inteligencia artificial dedicada a 24-7 cuya única tarea sea desarrollar teorías matemáticas,
definir nuevas teorías, probarlas, construir sobre las teorías anteriores, desarrollar nuevas ramas
de las matemáticas, nuevos problemas… Sé que todo esto suena a ciencia ficción, y por ahora lo
es, ya que actualmente lo que tenemos son ejemplos muy aislados como el de AlphaTensor,
que ha encontrado nuevos algoritmos para multiplicar matrices, o AlphaDev, que ha sido capaz de
optimizar algoritmos de ordenación, o AlphaFault, diseñada para descubrir los secretos que la
naturaleza esconde tras la estructura de las proteínas. Por ahora, todo esto son solo proyectos
aislados, proyectos aislados que requieren de inteligencias artificiales diseñadas
específicamente para cada problema. Se aleja de mi sueño de un enorme modelo fundacional que vaya
desarrollando nueva ciencia de forma autónoma, y eso caería más en la zona de ciencia ficción,
pero bueno, una ciencia ficción que a lo mejor dentro de no mucho llamaremos solo ciencia.
Y es que creo que será en esta etapa del Deep Learning 3.0 donde veremos un uso sistemático
de la utilización de la inteligencia artificial para acelerar los avances científicos, avances
científicos que luego repercutirán en el desarrollo de inteligencias artificiales cada
vez más potentes. En este punto del vídeo muchos de vosotros estaréis pensando,
Carlos, se te está yendo la puta cabeza. Pero es que este sueño de ias que impulsen avances
científicos no es solo una idea loca que exista en mi cabeza, sino que es el objetivo principal
de una de las compañías que no he parado de repetir en esta última fase del vídeo, DeepMind.
Y es que DeepMind ha sido durante la última década el principal laboratorio en cuanto
aprendizaje por refuerzo, robótica e impulso de la ciencia con Deep Learning se refiere.
A mi gusto, si en la etapa actual que estamos viviendo del Deep Learning 2.0, si tuviera que
destacar a una empresa protagonista, sin duda esa sería OpenAI, que ha sido la impulsora de los
enormes modelos fundacionales, en el caso del Deep Learning 3.0, creo que DeepMind sería la
que tendría mucho que decir. Y ojo, porque la transición a esto podría empezar mucho antes de
lo que pensamos. Y es que lo sabemos todos. La salida de ChatGPT por parte de OpenAI en
noviembre de 2022 pilló a Google con el pie cambiado. Y durante el año han intentado recomponerse,
igualar la apuesta, con algunos de sus modelos que ya estaban entrenando, como Palm 2 que
encontramos dentro de su sistema BART. Modelo del que muchas personas, y ahí me incluyo yo,
pues tratándose de Google esperábamos mucho más. Pero es que claro, entrenar un modelo para intentar
competir contra GPT-4 no es una tarea que puedas resolver en pocas semanas. Y tras restructurar a
sus distintos laboratorios de inteligencia artificial bajo un mismo nombre, Google,
DeepMind ahora estaban dejando al equipo de Demis Hasavis todo el poder para crear a la bestia.
Gemini será la gran apuesta de Google. Y podría ser la transición entre esta etapa de enormes
modelos del lenguaje y el Deep Learning 3.0. ¿Por qué? Para empezar, hay rumores de que la
computación dedicada a entrenar a esta primera versión de la bestia de Google intuplica la
computación dedicada al entrenamiento de GPT-4. Y eso solo para una primera versión. Pero es que
con la infraestructura de TPUs con las que Google cuenta, esto podría escalar rápidamente a unos
niveles a los que OpenAI no podría competir. Por otro lado, se sabe que otra de las fortalezas
de Gemini es que se tratará de un modelo fundacional multimodal.
Ahora, si hay algo que ha cautivado mi atención respecto a lo que Gemini podría llegar a ser,
son estas declaraciones del CEO de DeepMind, Demis Hasavis.
A nivel general, puedes pensar en Gemini como una combinación de algunas de las fortalezas
de sistemas tipo Alpha, Go, con las asombrosas capacidades lingüísticas de los enormes modelos
del lenguaje. Es decir, aquí DeepMind nos estaría hablando de la combinación de tecnologías como la
que hace funcionar a GPT-4 con parte de su tecnología de aprendizaje por refuerzo que
encontramos en los sistemas Alpha, Go. Y esto podría ser solo marketing. O podría
ser una versión un poquito más avanzada del reinforcement learning with human feedback que
sabemos que hace funcionar a chat GPT, o algo por el estilo. O podría ser algo en la línea de lo
que comenta aquí Demis Hasavis.
Creo que va a ser una combinación de las dos cosas. Tendremos un sistema general más poderoso
que interactúa con la lengua, pero que tiene otras capacidades generales como la matemática,
el código, y tal vez un poco de consideración y planificación en las próximas generaciones de estos
sistemas. Una de las cosas que estos sistemas pueden hacer es usar herramientas. El uso de herramientas es
una gran parte del área de investigación de estos modelos de lengua o chat bots. Para lograr
lo que necesitan hacer, pueden llamar a una herramienta y hacer uso de una herramienta. Y esas
herramientas pueden ser de diferentes tipos. Pueden existir piezas de software especial
caso software, como un calculador, o tal vez Adobe Photoshop, o algo así, piezas de software que
pueden aprender cómo usar, usando reinforcement learning, y aprender cómo usar la interfaz y
interactuar con. Pero también pueden ser otros sistemas de AI, otros sistemas de aprendizaje.
Estas declaraciones para mí son muy relevantes, y viniendo de boca de Demis Hasavis, pues le doy a
Gemini el beneficio de la duda, aun cuando Google ya me defraudó en el pasado con lo que Palm 2
llegó a hacer. Pero de ser lo que promete, pues parecería que estaríamos dando un paso firme más
hacia esta bonita idea de la inteligencia artificial general. Y eso amigos, eso sí será el futuro del
deep learning. Fijaos como todas las piezas que os he ido presentando a lo largo de este vídeo se
han ido conectando en una conclusión que es evidente, y es que el futuro de la inteligencia
artificial va a ser fascinante. He querido empezar esta nueva temporada del canal con esta temática,
con este vídeo, con un vídeo bastante extenso, con mucho contenido, porque establece muy bien
las bases de lo que vamos a estar aprendiendo durante este año. Fundamentos de aprendizaje
reforzados, modelos fundacionales, multimodalidad, robótica, world models, Microsoft contra Google,
DeepMind Gemini, todos estos temas los tendréis aquí en el canal. Esta es la nueva temporada y
es para vosotros. Aquí habrá donde vosotros tenéis que suscribiros y darle a la campanita para que no
os perdáis nada del contenido que está por venir y apoyad en Patreon todo este proyecto, pero es que
además tengo una sorpresa para vosotros. Como sé consciente de que al ritmo al que produzco estos
enormes vídeo documentales que llevan un montón de horas de trabajo por detrás, pues no nota tiempo
de cubrir toda la actualidad, todas las novedades, todas las herramientas que van saliendo y que me
gustaría probar y enseñaros y traeros aquí a YouTube, os traigo una nueva propuesta. Dot CSV
Lab, un nuevo canal de YouTube, el antiguo canal secundario que tenía, que ahora voy a estar llevando
en paralelo y donde voy a subir vídeos con mayor frecuencia. Evidentemente vídeos no tan producidos,
pero que va a servir para explorar, experimentar, probar muchas de todas estas herramientas que
están saliendo, contaros trucos de cómo podéis sacarle el máximo partido a la inteligencia
artificial, hablar de la actualidad y bueno, una forma de encontrarnos aquí en YouTube con todo lo
nuevo que está saliendo, que no es poco, y poder pues disfrutar de forma más continua de todo este
contenido. Aprender los fundamentos del deep learning que nos están llevando a la revolución
tecnológica más impresionante de nuestra historia, aquí en este canal. Cacharrear y experimentar con
todo lo nuevo que va saliendo cada día en el laboratorio, allí. Podéis suscribiros ya a este
nuevo canal y a ver si llegamos a los 100.000 seguidores solo con un vídeo publicado. Y el
vídeo que tenéis es este de aquí, donde prueba la herramienta HeyGen, que es una herramienta
espectacular para hacer justamente esto, para poder doblar a diferentes idiomas, poder modificar. Y
bueno, es bastante espectacular, lo podéis ver aquí. Chicos, chicas, muchas gracias por ver este
vídeo y estoy contentísimo de empezar ya la temporada de DOTCSV.