logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Cuando vemos el avance incesante de la inteligencia artificial logrando año tras año cada vez cumplir más tareas,
existe una preocupación general sobre cómo será el futuro laboral de todos nosotros, ¿no?
O sea, si la IA va automatizando muchas de las tareas que actualmente hacemos nosotros,
¿qué ocupación tendrá el ser humano dentro de 10 o 20 años?
Una pregunta abierta, difícil de responder sin hacer un análisis exhaustivo que vamos a dejar para un futuro vídeo,
pero para la que el humano haya encontrado una respuesta de consuelo,
un clavo ardiendo al que sujetarse ante un futuro incierto y que se resume con la frase,
bueno, tranquilos, no pasa nada, se crearán nuevos puestos de trabajo.
Y esta es una respuesta que a mí me hace dudar.
Porque históricamente es cierto.
Si miramos al pasado nos encontraremos con que revoluciones industriales previas han dado paso a nuevas formas de trabajo.
Revoluciones tecnológicas acompañadas de fuertes revoluciones económicas, sociales,
y con efectos y segundas derivadas difíciles de anticipar en aquellos tiempos.
Pero sí, a la par que muchos trabajos se iban automatizando,
también surgían nuevos trabajos que respondían a las necesidades de cada época.
Pero, ¿y si esta vez fuera diferente?
Mi problema con esta idea de se crearán nuevos puestos de trabajo es que nos estamos enfrentando
por primera vez a una fuerza de automatización capaz de adaptarse a los nuevos retos que le planteemos.
Capaz de aprender las tareas que nos ocupan hoy en día,
pero que también podrá ser capaz de aprender aquellas tareas que surjan en el futuro.
Entonces, siendo esto así, ¿qué impediría a la inteligencia artificial ocupar también los trabajos del mañana?
Como os he dicho, es difícil sacar conclusiones claras sobre cómo será el futuro del trabajo,
pero sí podemos estudiar el presente.
Podemos estudiar ejemplos de transformación del mercado laboral que ya están ocurriendo hoy en día,
donde aparecen nuevas profesiones impulsadas por la revolución de la inteligencia artificial
que rápidamente empiezan a ver su futuro peligrar.
Y que en concreto, para un caso muy particular,
hace que nos preguntemos si es el fin de los Prompt Engineers.
Pero antes de avanzar, os traigo un mensaje muy importante del patrocinador de este vídeo,
Hostinger.
Ya sabéis que con Hostinger contáis con una plataforma integral para la creación de vuestro sitio web.
Hostinger os apoyará paso a paso en el hosting, diseño y lanzamiento de vuestra web
de forma sencilla en muy poquitos minutos,
potenciado mucho de esto por herramientas de inteligencia artificial.
No tardaréis nada en lanzar vuestra página web.
Podréis elegir entre numerosos diseños que modificar con su intuitivo editor web
o dejar que sea la IA quien te proponga un diseño según tu temática.
También podréis medir el impacto de vuestros diseños con mapas de calor
que estimarán donde el usuario presta más atención.
Y en cuestión de minutos podéis generar contenido optimizado para SEO,
utilizando muchas de sus herramientas de redacción con inteligencia artificial.
Todo esto ahora además con una super oferta de Black Friday con descuentos de hasta el 81%.
Con dominio gratis, soporte en directo y bueno,
un montón de cosas que tendréis tenible por tiempo limitado en su página web.
Os dejo abajo un link con toda la información para que le echéis un vistazo a todas estas ofertas
y por fin os abráis a internet para que hagáis ese portfolio personal que tenéis pendiente
o la página web de vuestro proyecto.
Y bueno, muchas gracias de nuevo a Hostinger por estar apoyando este canal y este contenido
y vamos con el análisis.
La evolución del mundo del Deep Learning está clara.
En cuestión de pocos años hemos pasado de pequeñas redes neuronales
capaces de resolver tareas muy concretas
a enormes cerebros artificiales capaces de resolver un amplio abanico de tareas.
Modelos muy grandes, muy potentes y muy capaces,
pero cuyo potencial estaba escondido en su interior,
esperando a que tú, humano, interactuaras con él y empezaras a extraer todo su máximo rendimiento.
El problema de estos enormes modelos fundacionales es que no venían con un manual de instrucciones
que te indicaran cuál era la mejor forma de interactuar con ellos.
Y es que al tratarse aún en muchos casos de proyectos en fase de investigación,
pues muchas de sus capacidades son desconocidas
incluso para los propios laboratorios que los están liberando al público.
Lo bueno es que en muchos casos interactuar con estos enormes modelos
solo requería de una cosa, lenguaje natural.
Hablar con enormes modelos como ChatGPT o Dalí
solo requería saber escribir con el lenguaje con el que tú y yo nos comunicamos.
Escribir un input de texto, un apunte o una pauta para el modelo
o como se ha conocido en inglés, un prompt.
Y tras esto, pues con suerte, esperar a que el modelo te diera una respuesta satisfactoria.
Lo interesante es que pronto se hizo evidente que había alguna forma de interactuar con el modelo
que eran mejores que otras.
De hecho, ya con modelos antiguos como GPT-2 en 2019,
OpenAI nos contaba que, por ejemplo, si tú querías que tu modelo te hiciera un resumen,
pues podías utilizar el token TLDR,
habitualmente utilizado en internet tras un largo párrafo de texto
para colocar una versión resumida del modelo.
Y claro, como GPT-2 durante su entrenamiento vio este comportamiento repetido,
pues acabó aprendiendo que si tú ponías TLDR después de un texto,
pues tocabas en un resumen del texto anterior.
Por aquellos tiempos esto no era más que una mera curiosidad académica,
pero visto en retrospectiva, pues nos damos cuenta
de que este era uno de los primeros ejemplos de lo que hoy se empieza a conocer
como técnicas de prompting.
Encontrar estos truquitos, estas palabras mágicas que recitadas al modelo,
pues te permitían acceder a funcionalidades nuevas o a mejores versiones de él.
Era el nacimiento de un arte.
El arte de saber hablar con los modelos de inteligencia artificial.
Y cada modelo era un mundo.
Por ejemplo, con Dalí 2, si recordáis,
se popularizó este truquillo de concatenar la coletilla
Trending on ArtStation.
¿Por qué?
Bueno, pues porque Dalí estaba entrenado con imágenes de todo internet,
foros, redes sociales e incluido páginas web de arte digital como ArtStation,
donde allí cada día se hacía una selección del mejor arte,
de las imágenes más visualmente espectaculares,
y que por tanto estaban en la sección Trending.
Pedirle a Dalí que te generara una imagen que fuera Trending on ArtStation
era una forma de decirle a Dalí,
oye, sí, génerame esto que te he pedido, pero que sea bueno.
Y tenemos ejemplos más recientes.
En el vídeo que subimos aquí en el canal sobre GPT-4 Vision,
el nuevo modelo de visión por computador de OpenAI,
os enseñaba este ejemplo tan curioso de cómo,
aplicando técnicas de roleplay,
donde inducimos a la I a pensar que tiene una cierta personalidad,
pues nos daba acceso a cierto conocimiento o mejoras de rendimiento
en su capacidad de contar frutas.
La cosa era que si tú le pedías al modelo que te identificara cuántas manzanas había en esta imagen,
pues el modelo era incapaz de darte la cifra correcta.
Pero ah, si de repente le escribes en el prompt que es un experto contador de manzanas,
oh, sorpresa, el modelo hacía bien su tarea.
Así de tonta y así de lista es a día de hoy la inteligencia artificial.
Y parecería que estos son solo truquitos, curiosidades,
que se van compartiendo entre usuarios en internet, pero no.
Incluso en el mundo académico hemos visto ejemplos de papers científicos
cuya principal aportación es haber encontrado un prompt.
Un prompt que, aplicado de forma sistemática a una variedad de modelos,
pues cuantitativamente demostrado puede aumentar su rendimiento.
El caso más popular es el de este paper de aquí,
con la frase estrella Let's think step by step.
Vamos a pensar paso a paso.
Una frase que, incluida al prompt, donde tú estás especificando la tarea que quieres que haga el modelo,
lo que hace es inducirle a detallar mucho más sus cadenas de pensamiento,
generando así más información intermedia, porque está pensando paso a paso,
que luego le ayudará a llegar a conclusiones más correctas.
Este sería un ejemplo de prompt,
pero que luego se ha visto acompañado en posteriores publicaciones de estrategias más avanzadas
que te permitían sacar mucho más rendimiento de estos modelos.
Y claro, al igual que ser poseedor de muchos de estos truquitos de magia
te permite poder escribir tu propio manual de cómo ser mejor mago,
pues en internet no tardamos en ver el surgimiento de una nueva área de conocimiento,
una nueva ingeniería, un nuevo perfil profesional.
Efectivamente, estamos hablando del ingeniero de prompts.
Archivos de PDF que se vendían con los mejores hechizos
para poder dominar las artes oscuras de Mid Journey o Stable Diffusion.
Páginas web pobladas de imágenes acompañadas de sus prompts de cinco párrafos
que ahora tú podías copiar y pegar para generar resultados similares.
Cursos, escuela de magos, matriculad en Howard.
En definitiva, una industria surgiendo ante nuestros ojos
con la noble tarea de formar al trabajador del futuro,
al ingeniero de prompt, al prompt engineer.
Una profesión que cada vez iba ganando más y más popularidad
ante la aparición de ofertas de empleo como estas.
Y mi opinión sincera sobre todo este fenómeno os la contaré,
pero será al final del vídeo.
Porque ahora, bueno, soy portador de malas noticias,
quiero ponerme serio y quiero hablaros a vosotros, ingenieros de prompts.
¿Me estáis escuchando? ¿Estáis listos?
Vale, necesito que respiréis profundamente.
Respira profundamente.
Y trabajemos paso a paso en este problema.
Es el nuevo prompt a aprender.
Una frase que como si estuviéramos trabajando con un humano estresado,
ahora nos permite decirle a la inteligencia artificial algo así como
Hey, chill, relax, tranquilízate, respira profundo y luego nos ponemos a ello.
Y que de repente hace que el modelo trabaje a pleno rendimiento.
De nuevo un descubrimiento curioso.
Una frase mágica que saca más rendimiento de estos modelos
proveniente ni más ni menos que de un paper del laboratorio DeepMind.
Pero donde lo importante no es el prompt que han encontrado, sino quién lo ha encontrado.
¿Quién es el prompt engineer tras este descubrimiento?
Que no es ni más ni menos que la propia inteligencia artificial.
Vamos a traer un poquito de teoría sobre este asunto.
A ver, al mundo de la inteligencia artificial le llamamos inteligencia artificial
porque hablar de optimizar estructuras autodiferenciables no suena tan sexy.
Pero no tenemos que olvidar que en el campo del Deep Learning lo que estamos haciendo principalmente es optimizar.
Es decir, y esto ya lo comentamos en un vídeo reciente, pero bueno, lo vemos de nuevo.
Para un objetivo planteado lo que hacemos durante el entrenamiento es ir variando poco a poco los parámetros internos del modelo
para ir reduciendo así el error a la hora de cumplir ese objetivo.
Con lo que al optimizar y minimizar el error hacemos que la red haga mejor su tarea.
Pero algo ha cambiado en los últimos años, y es que con el surgimiento de los enormes modelos del lenguaje
también ha llegado esto de poder interactuar con el lenguaje natural.
Ahora, si tú tienes a tu modelo ya entrenado, pensemos en GPT-4, ya sus parámetros internos no se van a actualizar.
Diremos que están congelados.
Ya no hay un proceso de optimización basada en gradientes que vaya a ir actualizando el rendimiento del modelo.
No.
Esto de que a través de cómo se configure el input, de cómo redactemos el prompt, de cómo hablemos con el modelo,
podemos llegar a mejores o peores resultados.
Repito.
A partir de variar el input, podemos variar el comportamiento del modelo y por tanto variar su error.
Con lo que de nuevo podemos entender este proceso de ir variando las palabras de aquí para modificar el error de acá
como un nuevo proceso de optimización.
¿Y sabéis a quién se le da muy bien optimizar?
Efectivamente, a las máquinas.
Y con esta idea de optimizar es con la que DeepMind en un nuevo trabajo titulado
Los enormes modelos de lenguaje como optimizadores ha querido trabajar
usando estas potentes inteligencias artificiales para hacer esta labor de optimización,
de refinamiento del prompt que vamos a utilizar.
Os explico cómo funciona la técnica que sé que os va a interesar.
Imaginad que vosotros queréis plantearle una tarea concreta a vuestro enorme modelo del lenguaje.
Da igual que sea ChatGPT, Bart, Llama, Mistral, el que sea.
Y la tarea podría ser que fuera muy bueno resolviendo problemas matemáticos.
Pues lo que podemos hacer es lo siguiente.
Como un modelo del lenguaje puede, obviamente, generar lenguaje,
pues vamos a pedirle amablemente que nos genere un prompt para dicha tarea.
Y ahora ese prompt, pues lo pondremos a prueba.
A lo mejor el prompt propuesto por el modelo es
resuelve paso a paso este problema matemático.
Así que con esta fórmula, pues lo utilizaremos para resolver unos cuantos problemas.
Y comprobaremos cuántas veces el modelo con ese prompt ha llegado a la respuesta correcta.
Es decir, para este prompt podemos sacar una métrica de error.
Una tasa de acierto, por ejemplo, de cuántos problemas ha resuelto correctamente.
Y esto es importante, porque DeepMind ahora va a utilizar esta métrica
para ir guiando poco a poco a nuestro prompt engineer artificial
hacia la construcción de cada vez mejores prompts.
Incluyendo junto a cada prompt generado la métrica que ha obtenido,
ahora podemos hacer que el modelo del lenguaje entienda la dirección
hacia la que el prompt va mejorando.
Ah, que hacer referencia a resolver los problemas con cuidado suele dar mejor resultado.
Pues hagamos más prompts así.
Con esta señal de que tan bien han funcionado los intentos previos
es con lo que en este paper han conseguido optimizar la creación de prompts.
Una optimización que si os dais cuenta difiere del típico esquema de optimización
que hemos visto en Deep Learning.
Aquí no hay descenso del gradiente que vaya actualizando los parámetros del modelo
y que vaya cambiando su comportamiento, sino que el modelo permanece estático.
Y toda la optimización ocurre a nivel de input.
Y la pregunta del millón, ¿funciona?
Y tanto que funciona.
Tras varios steps de propuestas de prompts, de evaluación, de refinamiento,
vemos como la inteligencia artificial es capaz de diseñar prompts
que para una tarea concreta pasa de una tasa de acierto del 50% al 80%.
Y de donde surgen prompts tan curiosos como el que hemos visto antes,
de respirar profundamente.
Y esto es solo un ejemplo, un ejemplo de proyecto que ha investigado
a los enormes modelos de lenguaje como optimizadores de prompts.
Pero es que en los últimos meses no hemos dejado de ver trabajos
que profundizan en esta línea.
Hace pocas semanas, DeepMind también presentó a Prompt Breeder,
otro sistema capaz de crear prompts incluso más poderosos.
Y en cuyo paper ya avisaban que los prompts creados a mano suelen ser subóptimos.
Mal titular para los prompt engineers.
Y que podría ir a peor con trabajos como este de aquí,
cuyo título ya sugiere el concepto de Automatic Prompt Engineer.
O AP, APE, que traducido al español podrían ser monos
y que me lleva a esta idea de los monos tecleando en máquinas de escribir.
La tendencia, señoras y señores, está clara.
Los tiempos de escribir manualmente frasecitas mágicas
para interactuar con estos enormes modelos está llegando a su fin.
Y seguramente, como muchas otras tareas, quedará relegado a las máquinas.
Y es el caso del nuevo Dalí 3, cuya mayor innovación desde mi punto de vista
es que lo hayan integrado dentro de ChatGPT.
Si antes con Dalí 2 tú, humano, tenías que escribir elaborados prompts
para llegar a una imagen más o menos resultona,
ahora con Dalí 3 tú esto se lo pedirás a ChatGPT de la forma más sencilla,
hablándole como si él fuera tu prompt engineer.
Que por ejemplo quiera un pangolín jugando al tenis,
pues ChatGPT actuará enriqueciendo el prompt con todos los detalles que yo no haya definido.
Estilo, técnicas, elementos que potencien tu idea,
para llegar así a un resultado visualmente más estilizado,
a un resultado más óptimo.
Sí, los enormes modelos de lenguaje se optimizarán y se automejorarán
para construir los mejores prompts que respondan a nuestras peticiones.
Podemos concluir que estamos asistiendo al fin de los prompt engineers.
Y no pasa nada, esto al final es normal, es natural,
estamos viviendo una época de gran transformación tecnológica
donde todavía todo está muy turbulento, todo el espacio se está moviendo
y todavía no sabemos dónde va a residir el valor que nosotros, como trabajadores,
podríamos aportar a todo este ecosistema tecnológico.
Toca esperar.
Ahora, por terminar de confesarme en toda esta historia de los prompt engineers,
quiero diferenciar dos tipos de roles que creo que tendrán futuros diferentes.
Si tu expectativa de trabajo era estar sentado para sacarle el máximo partido
a estos modelos escribiendo frasecitas mágicas,
sí, la inteligencia artificial se va a comer tu propuesta de valor.
Pero sin embargo, si tu rol empezó a lo mejor siendo esto, siendo prompt engineer,
y ha ido pivotando de cómo construir prompts dinámicos,
que en ocasiones pueden interactuar con otras herramientas que enriquezcan dicho prompt,
con mecanismos como los que vimos en el vídeo de agentes autónomos jugando al Minecraft,
donde todo este texto que estáis viendo aquí supone el input,
el prompt que coordina la inteligencia de estos agentes autónomos,
donde a lo mejor tú has implementado estrategias de currículums de habilidades,
que el modelo puede recuperar de bases de datos de vectores, con estrategias RAG,
donde a lo mejor tu conocimiento técnico sobre todo el ecosistema de modelos,
ya sean comerciales, sean open source, de diferentes tamaños,
te permiten hacer balanceadores de carga para gestionar mejor los costes
o para cumplir ciertos requisitos, es decir, poder construir sistemas avanzados
aprovechándote de todo tu expertise en el uso de modelos,
¡Ah! Ahí tu propuesta de valor es mucho más interesante
y más compleja de automatizar por una inteligencia artificial.
No digo que sea imposible ni que esto no vaya a seguir cambiando y transformando
según evolucione la tecnología, pero aquí tu propuesta de valor está mucho más protegida
que la del prompt engineer tradicional, una versión del prompt engineer más focalizada
a ser LLM Ops y que irá evolucionando con el tiempo
y donde el acento reside más en la palabra ingeniero que en la palabra prompt.
Si te ha gustado el vídeo no dejes de compartirlo,
creo que traigo conclusiones que son interesantes
y que mucha gente debería de conocer después del añito 2022-2023 que hemos tenido.
Y como digo, las cosas se están moviendo muy rápido, el terremoto todavía no para
y el próximo lunes 6 de noviembre OpenAI nos ha convocado a todos
a un evento que van a retransmitir en directo
y que vamos a estar cubriendo aquí en este canal.
Un evento enfocado para developers, donde vamos a ver novedades, sorpresas
y seguramente nuevas tecnologías que van a ser bastante impresionantes.
Así que os espero a todos el lunes 6 de noviembre por la tarde, cubriendo el evento aquí en DOTS SV.
Chicos, chicas, muchas gracias por ver este vídeo, muchas gracias a Hostinger por patrocinarlo
y nos vemos en el próximo vídeo.
Chao.