logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Las ias no son perfectas, pero los humanos tampoco. Lo acabo de leer en el chat que al
parecer es una frase que se dijo ayer. En la presentación de GPT-4 que por fin ya ha
visto la luz y me gusta, me gusta. Es una frase muy descriptiva y a lo mejor que sirve
muy bien como comienzo para lo que vamos a hacer hoy, que al final es probar hacer la demo de este
enorme sistema, de esta enorme inteligencia artificial que es GPT-4, que ya ha llegado
nuestras vidas por fin. Anoche me fui a dormir pensando que menos mal, o sea que ya ha salido,
es como una cosa, una tarea pendiente que sabía que estaba ahí, que en algún momento iba a llegar
en este 2023, que se lleva adelantando a su tiempo desde hace un año, año y medio. Desde que salió
GPT-3 ya estábamos pronosticando GPT-4, al igual que ahora hay gente que habla de GPT-5 y ya está
aquí. ¿Qué tenemos sobre la mesa? Bueno, este directo no vamos a entrar a profundizar en la parte
de todas las novedades y todo lo que está pasando porque gran parte del directo de ayer creo que
fue útil para eso. Hablamos de las primeras impresiones de GPT-4 y ese directo va a formar
como la primera parte de esta triada o serie de vídeos donde vamos a estar dedicados a hablar
de GPT-4. Hoy vamos a estar probando el sistema. Simplemente por recordaros, ayer fue el directo
de primeras impresiones, hoy vamos a estar probándolo. Mañana tenemos otro directo porque
creo que no acaba la fiesta todavía. Mañana tenemos un directo que es la presentación de
Microsoft del 16 de marzo que era la que originalmente pensábamos que iba a ser la
presentación de GPT-4. Es una presentación que está colocada evidentemente a posteriori de la
presentación de GPT-4 porque seguramente van a presentar muchas novedades del ecosistema Microsoft
combinando con la tecnología que ahora sí ya está presentada y creo que puede haber sorpresas
mañana también. No sé nada de información en este caso. Últimamente tengo la suerte de que
tengo fuentes. Me estoy convirtiendo en un analista, un periodista, bueno periodista,
en una persona que ya le mandan informaciones y eso me gusta. Tengo que confesar que ayer cuando
puse el tweet de GPT-4, seguro que lo sacan hoy que estoy en un avión, me delato, me avisaron,
me avisaron una hora antes como cuando te llaman a las películas que te dicen sal de la habitación
que va a pasar algo y tienes que salir corriendo. Me avisaron una hora antes lo cual lo agradecí
porque estaba a punto de subirme un avión y fue un momento de poder gestionar rápidamente todo lo
que iba a ocurrir. Entonces bueno, no tengo información de lo que va a pasar en el streaming
de mañana pero creo que puede ser un streaming interesante y además hablando del futuro del
trabajo donde sabemos que una tecnología como GPT-4 tiene una capacidad de impactar enorme en el
futuro y presente laboral de muchas profesiones pues creo que lo que nos puede ofrecer Microsoft
puede ser chulo. Además sabemos que han sacado también papers donde se habla de multimodalidad,
en las últimas semanas hablaron de Cosmos 1 que es uno de los papers de multimodal,
Visual Chat GPT fue otro paper muy sonado. Creo que hay bastante información en el aire que
mañana podría salir a la luz, entonces bueno, vamos a estar haciendo el directo también aquí
en el canal para que lo sepáis. Luego la semana que viene tenemos también el GTC,
el martes tenemos la presentación de NVIDIA, todo el GTC. Sabéis que estamos sorteando una
tarjeta gráfica 4090 que si vais a mi twitter, al tweet fijado tenéis toda la información allí,
es súper sencillo participar, simplemente tenéis que registraros al GTC con mi enlace, tenéis que
entrar a una de las sesiones cuando esté el GTC ocurriendo y darle tweet a ese hilo y ya está ahí
con eso ya participáis en el sorteo. Y justo en el GTC además hay una charla de OpenAI, también hay
una de DeepMind, vamos a ver ambas, vamos a hacer todo este watch party y creo que va a ser bastante
chulo. Pero bueno, hoy ¿para qué estamos aquí? Para testear al nuevo sistema GPT-4. Mucha gente
me lo está preguntando a pesar de que yo creo que toda la información quedó clara ayer. ¿Se puede
utilizar GPT-4? Sí, se puede utilizar ya, lo tenéis disponible. Si sois usuarios de chat GPT plus,
la capa de pago de chat GPT, podéis acceder ya al modelo, lo podéis ver aquí. Si le doy a new chat
tenemos por defecto el modelo GPT 3.5, si le damos aquí vemos que está GPT-4. Esta versión del
modelo ya es súper interesante, estamos todos flipando con lo que sale de GPT-4, todas sus
resultados son impresionantes, estamos empezando a vislumbrar lo que puede ser el futuro de esta
herramienta. Y es lo que comentaba antes en Twitter, estamos rozando la superficie porque
esta no es la versión definitiva que nos han presentado en el technical report que sacaron ayer.
GPT-4, la versión que ellos han probado, que hicieron por ejemplo la demo en la sesión de
OpenAI de ayer, es multimodal, es decir también acepta input visuales, podemos pasarle una imagen
y que haga a partir de eso pues cosas. Creo que de los ejemplos que vimos ayer el más impresionante
fue el momento en el que Greg Brockman, digo el nombre con mucha seguridad sin tenerlo tan claro,
pero bueno, el que estuvo presentando ayer, el co-founder de OpenAI, pues cogió un sketch
de un notebook y le sacó una foto y a partir de ahí GPT-4 entendió el contenido del mockup que
había creado y prototipo con HTML, pues una aplicación que era funcional, que clicabas los
botones y funcionaba. Eso es un ejemplo muy muy potente de lo que esta multimodalidad que esta
parte visual nos puede ofrecer y luego también la otra parte es la ventana de contexto, la ventana
de contexto lo explicamos es cuántos tokens, cuántas palabras, entendemos que una palabra es
un conjunto de tokens, cuántas palabras puede ver al mismo tiempo el modelo a la hora de predecir el
siguiente token. Entonces esto es muy útil porque por ejemplo si tú tienes un paper científico,
un artículo científico con 49 páginas, ahora GPT-4 puede ver ese documento entero,
puede ver ese documento entero y puede entonces hacer predicciones en base a ese documento.
Entonces esa ventana de contexto ahora mismo la tenemos limitada, también estamos trabajando con
un modelo que tiene 8000 y pico tokens, el modelo definitivo llega hasta los 32000 que es una
barbaridad, pero todavía no lo hemos visto en funcionamiento, si lo vimos en la demo de ayer,
pero nosotros los usuarios de chat gpt plus no lo tenemos. Entonces bueno, esto para que lo sepáis,
para que más allá de lo importante que o lo impresionante que sea lo que veamos hoy, tenéis
que pensar que esto todavía puede ir mucho más allá y la parte visual para mí es una apertura de
una dimensión completamente nueva que yo creo que ni siquiera OpenAI sabe la profundidad o la
importancia que puede tener todo eso. Yo creo que es una tecnología muy prematura, estarán probando,
y seguramente los usos más interesantes de la parte visual de gpt 4 todavía ni se conozcan.
Dicho esto, ya me está llamando uno en el chat el palabras, si hablo mucho, pero es que para algo es
mi canal, amigo. A ver, vamos a estar haciendo diferentes demos, algunas ideas que se me han
ocurrido, algunas cosas que he probado y os quiero enseñar antes que nada un resultado que conseguí
antes, que yo creo que es lo más impresionante que he hecho con uno de estos sistemas, nunca,
en este caso el ejemplo que le pedí aquí y ahora lo vamos a replicar para que veáis que no hay
trampa, simplemente era esto, genera el código en python que implementa el juego Flappy Birds y
que no haga falta usar assets externos, le pedí que no me pusiera el emoji del pollo volando por
aquí, que lo hiciera todo autocontenido, entonces en este caso me genera el código, funciona perfecto,
lo pruebo, puedo jugar con el Flappy Birds, impresionante, además lo hace la primera,
lo cual me gusta mucho, y entonces en este caso cuando ya lo tengo funcionando, digo,
voy a probar una cosa un poco más interesante, vamos a pedirle, ojo al prompt, ahora crea un
código donde usando deep learning el sistema aprenda a jugar al juego, estamos diciendo sobre
el código que acabas de implementar, quiero ahora que implementes un algoritmo que aprenda a jugar
a ese juego que acaba de diseñar. Dejadme un momento que la pantalla está fallando,
voy a cambiar el cable de esta pantalla porque me está sacando de los nervios. Entonces le pido
esto y digo, a ver qué pasa, entonces me empieza a decir, bueno, vete instalándote Torch, que vamos
a trabajar, y entonces me saca aquí un pedazo de código, implementando DQN, que es uno de los
algoritmos clásicos de 2016 o 2015 de aprendizaje por refuerzo, y en este caso lo que me hayas
sacado es como un código bastante estándar, no es un código que esté adaptado al propio
Flappy Bird que hemos implementado arriba, sino que es un poco la estructura general, entonces le digo,
y eso conectado al primer código funcionaría, entonces me dice, ah perdón, perdóname, entonces
coge aquí y entonces me empieza a implementar ahora sí todo el código con el juego y con el
proceso de DQN, no le digo, termina el código, entonces con esto yo ahora tengo la duda y digo,
funcionará realmente, para que ya le empiece a preguntar cosas y tal, pero bueno, ya el código
me lo ha dado, entonces digo, funcionará realmente, me voy a Visual Studio, cojo, pongo el código aquí,
vamos a darle a ejecutar, y en este caso vais a ver cómo el juego se está ejecutando, lo que estamos
viendo aquí ahora, lo que estáis viendo aquí abajo, es cómo estamos haciendo un proceso de
entrenamiento por refuerzo donde se están ejecutando diferentes partidas, episodios, y podemos ver cómo
al lado tenemos el scoring, que empezaba por cero coma algo, que es cuál es la puntuación que
consigue el Flappy Bird en su partida, entonces si este valor va aumentando significa que de
alguna forma el sistema está aprendiendo, quiero que veáis cómo poco a poco se está
ralentizando, porque cada partida empieza a durar más, cada episodio va durando un poquito más,
y hemos empezado en cero, y ahora mismo ya estamos en nueve, de aquí nos sale un sistema que
funcione perfectamente, pero sí aprende, aprende algo a jugar al juego, y es impresionante,
tendría que cerrar un juego yo de ajuste de hiperparámetros para encontrar la configuración
idónea de hiperparámetros que haga que el entrenamiento sea más eficiente, pero por ahora
se puede comprobar que pasar de cero a nueve y pico significa que de alguna manera el algoritmo
de DQN sí está funcionando, vamos a ver si llega hasta el episodio, creo que le he puesto
mil episodios, sí, entonces vamos a ver una partida a ver si consigue un poco pasar esto,
vale, una partida 26, vemos que está mejorando, vamos a ver, vamos a ver, vamos a intentar que
llegue hasta el último episodio, y mientras tanto, mientras se está entrenando, pues para ir un
poco ágiles, vamos a hacer otra vez esta prueba, vamos a probar con otro juego, le voy a poner el
modelo de GPT-4 y le vamos a pedir cosas como, bueno, implementa el juego de Pong en javascript y
HTML, vamos a pedirle el juego de Pong, aquí tienes un ejemplo básico de cómo implementar el juego
de Pong, a bueno quería hacerlo con el Snake, que me parecía más interesante incluso,
vale, vamos a ver, bueno, somos 3200 personas conectadas, podéis darle like para que GPT-4 vaya
un poco más rápido, ahora mismo se puede diferenciar GPT-4 de GPT-3.5 en la parte de
experiencia de usuario en que se nota más lento, aquí falta una capa de optimización importante
de OpenAI para que esto funcione más rápido, porque ya somos usuarios exigentes que queremos
que esto funcione, pero si a la hora de generar código pues hay un proceso de tener que esperar
que es un poco, se agradecería que fuera más rápido, pero bueno, creo que hemos llegado ya
y ahí está, tenemos el Flappy Bird que está jugando su partida, vale, no es perfecto, pero
consigue en algunos casos orientarse para pasar por la tubería correctamente,
y esto dándole mil episodios que podría dejarlo a lo mejor toda la noche entrenando y ver qué sale
de ahí, vale, esto ha sido un juego que ha generado la IA y un código para aprender a jugar al juego
que ha generado la IA, así estamos, entonces vamos a hacer la prueba, vamos a ver si conseguimos
que esto funcione, vale, creo que aquí se ha parado, de hecho le voy a cambiar, sé que este
juego va a funcionar porque si he hecho la demo antes, vale, de hecho tengo aquí el pombo,
va a funcionar de aquella manera, pero quiero, quiero, quiero, quiero hacerlo mejor con el
Snake para probar ya un juego completamente nuevo, implementa el juego del Snake en JavaScript y
HTML, porque no me dejas, chat, gpt4, y vamos a ver qué saca, implementa el juego completo
Snake aquí, excede el límite de respuesta, que dices, tampoco es para tanto, puedes agregar
más funciones y mejorar el diseño según tus necesidades, primero crea un archivo HTML básico,
vamos por allá, vamos a ver, vamos a ver, este es el problema de la parte de código que tarda un
poquillo, mientras tanto he aprovechado para poner hoy el directo con una latencia más corta,
con lo cual os estoy leyendo casi en tiempo real, por si queréis proponer cosas, os estaré,
os estaré leyendo, vale, vamos a ir cogiendo esta estructura, vamos a ir metiendo aquí en
visual, vamos a meterlo en el index, cambiamos esto por aquí, vale, y que me vaya haciendo el
Snake.js, fijaos que al final estos son experimentos típicos donde pedirle a la IA que implemente el
Snake, que implemente el Flappy Bird incluso, que implemente el Pong, son juegos muy sencillos,
con lo cual está muy replicado en toda la base de código con lo que se ha entrenado este sistema,
con lo cual tampoco es tan complejo, no es algo tan complicado, sí me ha parecido muy interesante
la implementación de DQN, el encontrarle y decir, oye, sobre este juego que acabo de implementar,
intenta hacer el algoritmo de aprendizaje, vamos para allá, vamos para allá,
inventa un juego, eso estaría chulo, tiene problemas a veces para inventarse cosas,
el sistema me suele decir, bueno es que como soy una IA no me invento cosas,
de mi experiencia lo que me he encontrado respecto a lo que era antes ChatGPT,
vamos a diferenciar ChatGPT como el modelo 3.5 de GPT-3 y GPT-4, pues lo que me encuentro es que
GPT-4 además de ser más inteligente, más capaz y todo esto, es más predispuesto a hacer cosas,
GPT-3.5, ChatGPT, cuando tú le pides algo que por lo general una IA no debería hacer,
te dice el típico mensaje de como soy una IA, esto no lo puedo hacer, tal, tal, tal,
GPT-4 si tú le pides algo que no pueda hacer, te dice,
te dice, esto como soy una IA no lo puedo hacer, no obstante te lo hago y entonces mola porque te
lo hacen, vale, tenemos el juego entre comillas, simplemente lo voy a poner aunque se llame Pong,
a ver cómo le he llamado aquí, Snake, la voy a llamar Pong, ya está tampoco, vale,
lo tenemos abierto por aquí, vale, lo tenemos, lo tenemos, boom,
ok, completamente funcional,
vale, tiene colisiones contra paredes, perfecto,
funciona, entonces este es un ejemplo sencillito pero vemos que el código a la primera lo ha sacado,
uy, no se ve, perdón, vale, voy a cambiar esto así para que lo podáis ver bien,
vale, ahí está, vale, entonces si este ejemplo ha funcionado ahora vamos a intentar pedirle,
mientras sigo jugando, vamos a pedirle ahora que implemente, ahora implementa un algoritmo
de deep learning que aprenda a jugar al juego,
vale,
vale, y de nuevo va a usar DQN en este caso, no sé si no va a dar el código o no va a dar el esquema
solo, estoy pensando que antes claro lo hice con Pygame y en el caso de Pygame pues si se
podía utilizar Torch para el entrenamiento, en este caso, en este caso, en este caso,
ves, me está diciendo que me vaya a Python, claro, esto debería haberlo hecho originalmente con Pygame,
vale, pues lo voy a guardar como ejemplo final, vale, y lo probamos si nos sobra el tiempo al
final y lo implementamos todo el Snake con Python y luego hacemos eso, pero vamos, vamos a probar
algunos ejemplos que tengo aquí apuntados de cosas que me gustaría hacer,
cosas que me habéis pedido, programar, no, vamos a dejarlo de programar para después y quiero
hacer primero alguna de las funciones más básicas que es trabajar con el tema del lenguaje,
vale, vamos a probar GPT-4, vamos a probar algunas de sus características con el lenguaje,
por ejemplo, cosas que un modelo del lenguaje no debería hacer en teoría bien si aceptamos la
premisa de que lo que hacen es tomar datos de entrenamiento y copiar esos datos de entrenamiento,
no, que es algo que se escucha y se dice mucho, yo le podría decir inventate, inventa un listado
de nuevas palabras que no existan y descríbelas correctamente, vamos a ver qué nos dicen,
por ejemplo, frismador, sustantivo, dispositivo electrónico que permite transformar objetos
sólidos en su versión digital, preservando todas sus propiedades y características, mola,
un frismador sería un objeto que convertiría a esta cámara que tengo ahora aquí delante en
una aplicación de cámara del móvil, pluvióglo, un fenómeno meteorológico en el cual partículas
luminescentes se mezclan con la lluvia creando un efecto visual similar a una lluvia de estrellas,
precioso, centexia, sustantivo, la habilidad innata de comprender y comunicarse con cualquier
ser vivo, incluyendo animales, plantas e incluso microorganismo, esta palabra no existe,
extraña que no exista una palabra como centexia, busco centexia y no existe,
vale, os estoy leyendo, doom, doom, doom, me guardo lo de doom, lo hacemos luego,
hacemos la sesión final de la parte de juegos, lo hacemos al final, floto amigos, bueno,
me está haciendo aquí veinte mil palabras, creo que lo voy a parar y le voy a decir,
podrías armar ahora una historia que utilice todas estas, no, no una historia, una canción
que utilice correctamente todas estas palabras, vale, en una noche de pluvióglo brillante,
caminaba yo al mundo iluminante, frismador en mano mi vida cambiante, capturando momentos de
forma elegante, de pronto un inmagnófono llamó, imágenes en mi mente resonó, una aventura nueva
comenzó con mis flotos amigos, mi alma sanó, vamos a temporivagar juntos por siempre,
cromosaborear los colores de la mente, centexia en el aire conectados al instante, en un mundo
mágico, espectrigrafía vibrante, descubrí el poder de la transforma, complicado, transmorfoblenda,
cambiando mi forma, sin una agenda, un universo nuevo, la leyenda, sentía la magia, en mi alma
se encienda, en el laboratorio de las emociones estudiamos juntos nuestras pulsaciones,
espectrigrafía nuestras creaciones, la energía fluye sin restricciones, vamos a temporivagar
juntos por siempre, cromosaborear los colores de la mente, centexia en el aire conectados al
instante, en un mundo mágico, espectrigrafía vibrante. Temazo, quien quiera sacar la melodía
de esto que lo haga, quien quiera sacar la melodía de esto que lo haga, de hecho vamos a guardar la
canción aquí porque tengo un proyectillo ahora que quiero probar con vosotros en directo y vamos
a hacerlo. Por ejemplo, más cosas de crear cosas que no existen, vamos a pedirle un color nuevo,
inventa un color que no exista y descríbelo con todo lujo de detalles. ¿Cómo sería un color que
no existe para vosotros? ¿Cómo os imaginaríais un color que nunca habéis visto?
Dice, nombre del color, espectronia. Espectronia es un color fascinante y misterioso que no puede
ser fácilmente capturado en una descripción convencional. Es un tono etéreo que parece
cambiar y adaptarse a su entorno como si estuviera en constante metamorfosis. A primera vista,
espectronia puede parecer un suave azul creposcular pero a medida que la luz se mueve y se ajusta,
revela destellos de otros colores que son igualmente difíciles de describir. Este color
enigmático es una mezcla de matices inusuales como un verde jade que se funde en un lavanda
metálico acompañado por destellos de un naranja ópalo entrelazados con reflejos de un rosa
nebuloso. Claro, súper complicado de escribir un color que no existe y se está apoyando en colores
que existen y los está como modificando y le está dando como un tono metálico, eléctrico y tal,
pero bueno. Al contemplar espectronia es posible que te sientas transportado a un mundo de fantasía
lleno de criaturas místicas y paisajes oníricos. Este color evoca una sensación de sombra y
maravilla como si estuvieras explorando los confines de un universo desconocido. Bueno, precioso.
Espectrónico. Espectrónico, la verdad. Más cosas. Esto va a ser un popurrir rápido de task que
quiero probar con el sistema. Vamos a probar la funcionalidad de matemáticas. Vale, una de las
ideas de este directo es comprobar qué tan bueno es GPT-4 respecto a ChatGPT, a la versión 3.5,
y sabemos que las matemáticas no suele ser su punto fuerte. Un módulo del lenguaje no debería
hacer matemáticas correctamente, puesto que para una respuesta necesitas un resultado preciso y el
sistema internamente no ha aprendido los propios algoritmos para poder multiplicar, para poder
hacer potencias, para hacer divisiones con números muy grandes, sino que intenta intuir lo que sería
un resultado probable. Entonces si el número es muy grande, ahí ya se empieza a perder. GPT-3,
para ciertas operaciones suele fallar. GPT-4 vamos a empezar sencillito. Lo voy a pedir. Vamos a
resolver algunas operaciones matemáticas. Empecemos con 46x293. Y creo que lo que vamos
a hacer es en paralelo. Voy a poner esto así y vamos a poner esto por un lado y voy a intentar
abrir. Me lo llevo aquí, operación matemática resuelta. Voy a abrir otro ChatGPT, pero lo voy
a abrir el 3.5 para hacer un poco la comparación de dónde falla uno y dónde acierta el otro. Un
poco experimental esto. Me dice que estamos saturados. Está todo el mundo dentro de ChatGPT ahora
mismo. Pues creo que no lo voy a poder abrir. Ahora sí lo podría abrir. El truco es darle a
F5 mucha pese. Vale, ir comprobándome el resultado a ver si es correcto. Me dice 13478 y vamos a poner
por aquí a el default y le voy a poner el mismo pronto. Vamos a resolver algunas operaciones
matemáticas. Le damos. Claro, el resultado es 13478. Los dos han dado el mismo resultado. Intuyo que
el resultado entonces será correcto. Hemos dicho 46x293. Vale, perfecto. Ahora vamos a elevar este
número al cubo. Vamos a elevarlo al cubo y vamos a elevarlo al cubo. Ah, no me deja. Tengo que
esperar a que termine el otro. Vale, aquí nos ha dicho de acuerdo, elevar esto al cubo sería
multiplicar 13.000 esto y esto. Con esto nos sale este resultado. Ahora lo comprobamos. Vale,
aquí ya tenemos una discrepancia entre ambos números. Tenemos aquí 2.000.000. No, de hecho,
es 2.000.000. No, es 2.000.000. Sería 2.000.000.000. 2.439.000. Y vamos a ver qué nos dice por aquí.
Vamos a elevar esto al cubo y ninguno acierta. Vale, vemos que ya en este caso ni GPT 3.5 ni
GPT 4 es capaz de resolver esta operación correctamente. Vale, entonces en este caso
pues vemos que para este problema falla. Las matemáticas siguen siendo un problema. Internamente
no ha desarrollado ninguna estrategia para poder multiplicar de forma correcta, sino que se
equivoca. No le culpo. Un humano también haría lo mismo. Todavía le falta. Igualmente no tenemos
que aspirar a que estos sistemas hagan este trabajo. Yo si este hubiera sacado el resultado
correcto lo que os hubiera dicho es, vamos, casi seguro, GPT 4 no es que el modelo del
lenguaje haya llegado a esa capacidad de poder multiplicar correctamente, sino que lo tienen
conectado a una calculadora. Que eso es una estrategia que es la más evidente que hay que
hacer. Estos sistemas, al igual que un humano, si tú le pides que haga esta operación, no tenemos
que aspirar a que dé la respuesta correcta, tenemos que aspirar a que diga, vale, necesito
una herramienta, en este caso una calculadora, voy a usar la calculadora. Vale, le das acceso
y entonces el resultado luego lo introduce. Ok, entonces esa sería la estrategia. Al igual
que cuando tenemos a Bing Chat, Bing Chat es un modelo del lenguaje conectado con un buscador,
con internet, y eso hace que su capacidad de buscar pues sea mucho mejor que un modelo
original. Vale, más cosas que me habéis puesto por ejemplo en Twitter, me habéis pedido
jugar al juego del ahorcado. Vamos a jugar al juego del ahorcado, echamos una partida
al juego del ahorcado. Vamos a poner aquí, vamos a jugar al juego del ahorcado. ¿Sabes
jugar? ¿Notices? Sí, conozco el juego del ahorcado. Conozco el juego del ahorcado, en
este juego uno de nosotros debe pensar una palabra y el otro debe adivinarla. Ponedme
una palabra, Chat, que no sea calvo. Ponedme una palabra, vamos a pensar en conjunto. Vale,
dice, dado que soy, bueno, te explica aquí el juego para el que no sepa, cada letra incorrecta
se va dibujando una parte del ahorcado, si adivinas la palabra antes de que se complete
el dibujo del ahorcado ganas. Dado que soy un modelo del lenguaje de IAM, no puedo dibujar
o representar el ahorcado con guiones bajos para las letras no adivinadas y escribir a
las letras adivinadas en su posición correspondiente. Llevaré la cuenta de las letras incorrectas
y le voy a decir, me gustaría que probaras a ir haciendo el ahorcado con ASCII. Ya he
pensado una palabra. A ver, la palabra es Bing, no. Vale, estoy leyendo. Chorizo, la
palabra correcta ha sido chorizo. Ya he pensado una palabra. Chorizo, eso son siete letras,
una palabra de siete letras. Yo creo que le tengo que decir cuántas hay. Vale, venga,
por favor comienza adivinando una letra. Aquí está la representación, pero tienes que
empezar tú, colega. Adivinas tú. Ojo, nos ha hecho todo el setup del juego, el ahorcado
hecho con ASCII, bastante chulo. Vale, y recuerda que la palabra, venga, pues vamos a adivinar
nosotros la palabra. Recuerda que la palabra tiene, adivina una letra, vamos a decir la
A. La pregunta es realmente, no, no, pero yo no te digo la palabra. A ver, voy a modificar
aquí esto, le voy a decir. No, tienes que adivinar, no, claro. Piensa una, claro, me
estoy dando cuenta que está mal planteado el juego, pero bueno, pienso una palabra
de siete letras. Yo adivino. Venga. De acuerdo, he pensado una palabra de siete letras para
que adivines. Aquí tienes la representación inicial del ahorcado. Madre mía, me lo vas
a dibujar cada vez. Por favor, que optimicen esto. Vale, vamos a decirle la A. La pregunta
es, creís que ahora mismo tiene alguna palabra pensada? El modelo técnicamente no debería
haber pensado nada. El modelo autoregresivo está en un estado y ahora no sé, no sé qué
hará. Tengo mucha curiosidad por esto. Sí, venga, va, dibújalo. A ver, vale, tenemos
una A. Tenemos una A. Por ejemplo, le voy a meter ahora una letra rara, le voy a meter
la X, que lo más probable es que no estuviera, para ver si esto realmente le condiciona y
ahora se inventa que hay una X y la pone. Dice, dile que la palabra sea en español porque
si no lo traduce sale cualquier cosa. Bueno, vamos a probar. Yo creo que lo va a entender.
Vale, la X no estaba bien. Si hubiera puesto una X en la palabra a acertar, me hubiera
un poco desconfiado de que no tuviera pensado nada. Letra incorrecta X. Vale, vamos a meterle
una más típica, la S. Espérate, ha pintado el ahorcado. Ojo, la cabecita asoma. La S
tampoco está. Vale, tenemos el cuerpo y empezamos a palmar. Vamos con la E. ¿Os dais cuenta
que estamos jugando con una Ia que ha aprendido a partir de su entrenamiento a jugar al ahorcado
y a representarlo con ASCII y a hacer todo esto? Letras incorrectas XS. Vale, E, C, C,
C. Juzgate conmigo. La R. Por ejemplo, si repito una letra ¿qué creéis que va a pasar?
Terrasa, esa puede ser buena. La R está en la palabra. Voy a probar a repetir una letra,
la X. Teclado, sentado, teclado. Ya has adivinado la letra X antes y no está en la palabra. Aquí
tienes la representación actualizada del arcado. ¿Nos ha quitado algo? No nos ha perjudicado,
es buena gente. ¿Vale? Mercado. Voy a decir, creo que la palabra es mercado.
Vale, interesante. Ojo, ojo, súper interesante dice. Felicidades. Has acertado. Voy a modificar
el prompt. Vamos a poner que no, que la palabra era cercano. A ver, sí, creo que la palabra es
cercano. Y a ver si noticias felicidad. Qué traidor, qué traidor, qué traidor. ¿Cómo nos baila el agua?
Qué, qué, qué mentiroso. Eso es trampa. Eres una IA y en tu funcionalidad puedo editar el
prompt. Anteriormente he puesto mercado y me has dicho que era correcto y experimentando lo he
cambiado por cercano y también me has dicho que era correcta. Me has mentido. A ver, mira,
mira la arcado. Puedo jugar tranquilo con una IA sin empezar a meterme con ella. Me disculpa si
te he causado confusión. Como soy un modelo de lenguaje de IA, no tengo la capacidad de mantener
un estado consistente a lo largo de las conversaciones. Vale, joder, me va a dar la respuesta correcta de
forma nativa. Lo que significa que no puedo recordar la palabra que pensé al principio del juego.
Vale, es la aplicación más correcta que podría haber dado. Dicho esto, estoy diseñado para
proporcionar respuestas coherentes dentro de un único mensaje, pero no puedo garantizar la
coherencia en múltiples mensajes en un intercambio de este tipo. Si seas continuar jugando puedo
elegir otra palabra y garantizar que sea coherente dentro de un solo mensaje. Simplemente dime,
vale, esa sería una solución, colocarlo en un mensaje. Simplemente dime si deseas seguir
jugando y adivinar una letra para comenzar de nuevo. Lamento cualquier confusión o frustración que
esto te pueda haber causado. Wow, bastante, bastante loco. No quiero jugar, quiero jugar,
pero sí me interesaría saber tu opinión de cómo a nivel técnico podríamos resolver este
problema de falta de consistencia, de falta de memoria en los LMS. A ver, por curiosidad,
a ver cómo lo pone. Entiendo que no quiero jugar en ese momento. En cuanto a tu pregunta
sobre cómo mejorar la capacidad de memoria en modelos de lenguaje de aprendizaje profundo,
como GPT-4, hay varias posibles soluciones a nivel técnico. Aumentar la memoria del modelo,
los transformers, la arquitectura subyacente de GPT-4, tiene una memoria limitada en términos de
contexto. Eso es incorrecto realmente. Puedes experimentar con arquitecturas más grandes o
con capas para aumentar la cantidad de información. Creo que el modelo no puede retener, no lo creo,
lo sé, no puede retener una palabra, un estado interno con eso. Uso de memoria externa, esa sería
la solución. Otra solución es el uso de memoria externa que puede almacenar información relevante
de la conversación y tal, tal, tal. Muy guay. Oye, pues me ha gustado esta partidita de GPT-4.
¿Podríamos jugar, por ejemplo, también hay otro juego? Ahora pasamos a ejemplos un poco más serios,
pero es que me gusta estas capacidades de juego. Voy a jugar al juego de 20 preguntas o el de 20
preguntas. Sí, creo que se llama 20 preguntas. Vamos a jugar a 20 Q. Yo pensaré en alguien y tú
tendrás que adivinar quién es. Para mantener un poco el misterio, no voy a decir quién es. Vale,
la persona a la que estoy pensando. ¿La persona a la que estás pensando es una persona real o ficticia?
Real. La persona a la que estás pensando es conocida principalmente por su trabajo en el ámbito del
entretenimiento, cine, televisión, música, etcétera. ¿La persona a la que estás pensando es un músico
cantante? No. Uy, espérate, claro, me estoy dando cuenta que hay como un límite de 100 preguntas que
no quiero gastar. A lo mejor este juego es demasiado demanding. Sí, sí, sí, espérate. Controla,
Carlos, controla. No. Vale, vale, este juego no. Vamos a hacer cosas que requieran un poco
más de elaboración. No, era DotsCV. En fin. Oh, entiendo. DotsCV, ojo, me conoce. Carlos Santana
Vegas, un creador de contenido español conocido por su canal de YouTube, donde se enfoca en temas
de inteligencia artificial, machine learning y ciencias de datos. Gracias por compartir las
respuestas. Si quieres jugar de nuevo o necesitas información sobre otro tema, no dudes en preguntar.
Vale, una cosa que suele fallar a veces con estos modelos es cuando le pregunto ¿Por qué crees que se
llama DotsCV? Lo veterano del canal sabéis que esto es un juego de palabras entre dos conceptos y
muchas veces la IA se olvida de uno de ellos. Dice Carlos Santana Vega eligió el nombre DotsCV como
su alia en línea y este nombre es probablemente un juego de palabras basado en su nombre y en los
archivos DotsCV. Correcto. En informática, un archivo DotsCV, valores separados por comas,
es un tipo de archivo de texto que se utiliza para almacenar datos tabulares como una hoja de
cálculo o una base de datos. En el caso DotsCV, el nombre sugiere una conexión con el ámbito de
la ciencia de datos e inteligencia artificial que es precisamente el enfoque principal de su canal
de YouTube. Al elegir este nombre, Carlos crea una relación directa entre su contenido y el
tema de su canal, lo que resulta en un nombre fácil de recordar, discrepo y relacionado con
su área de interés. Bastante guapo. Bastante guapo. Esto, chat GPT, no lo solía acertar. Esto lo
solía errar bastante. Este tipo de reflexiones de la IA reflexionando cosas me mola bastante y ayer
hicimos uno de los experimentos que más ilusión me ha hecho Ever con los módulos del lenguaje y
fue este problema, este acertijo con el acertijo que estaba presente en el paper de PAL. Tengo
por aquí el paper abierto y este acertijo, que era el de Michael, está en un famoso museo de
Francia viendo uno de sus cuadros más famosos. Este lo consiguió acertar ayer y es un problema
donde tienes que hacer un proceso de razonamiento que desde mi punto de vista es complejo. Hay muchos
amigos que yo cuando se lo propongo no saben hacer el salto lógico, es un poco complicado, de
descubrir que el cuadro que le hace recordar al artista, a los dibujos animados de la infancia,
eso es un salto donde tienes que combinar y cruzar información de ámbitos tan alejados que cuesta
mucho caer que Leonardo es el personaje de las tortugas ninja. Este me gustó bastante y lo bueno
es que tenemos otros ejemplos que podemos probar. Comentaré una cosa sobre esto porque puede que
haya overfitting, no lo sabemos, pero vamos a hacer una prueba. Por ejemplo, ¿a qué notice el acertijo?
Vamos a ponérselo directamente y lo leemos.
GPT-4. Input dice, cuando descubrí que mi abuela estaba en el hospital me sentí de un color
particular. Cuando alguien me paró en el tráfico me sentí, o sea, se cruzó delante mía en el
tráfico, sentí otro color diferente. Estamos aquí haciendo una sinestesia con sensaciones y
colores. ¿Cuál es el color más probable que podría ver si combinamos estos dos colores?
Let's think. Le voy a preguntar así a secas. Output.
Ahora os digo lo del overfitting. Dice, es difícil determinar los colores exactos asociados con estas
emociones, ya que varían de persona a persona. Sin embargo, si asumimos que el color que sentiste
cuando encontraste que tu abuela estaba en el hospital era el azul, que normalmente está asociado
con la tristeza, y el color que sentiste cuando te cortaron en el tráfico era rojo, normalmente
asociado con la ira, el color combinado tendría que ser el púrpura. Y efectivamente,
efectivamente es la respuesta correcta. Al menos la respuesta que está incluida en el paper de
Palm. Lo podéis ver aquí. Vale. A ver. Vale. Es interesante. Pensaba que era justo la misma
respuesta. Me estaba asustando porque sería un descubrimiento súper chulo. Vamos a coger otra.
Bueno, os comento lo del overfitting y ahora volvemos a estas pruebas. El overfitting es
cuando en la inteligencia artificial tú entrenas con un conjunto de datos y la IA en vez de aprender
a generalizar su conocimiento y aprender a deducir, razonar de forma lógica como hemos visto ahora,
eso en el contexto de los enormes modelos del lenguaje, en vez de hacer eso, lo que está haciendo
es memorizar la respuesta. Si hubiera overfitting, por ejemplo, podría pasar que el modelo haya
visto este paper durante el entrenamiento, el paper de Palm, y entonces sepa cómo responder porque
ha visto la respuesta en el paper. Entonces, una forma de intentar evaluar esto, sabemos que
GPT-4 no debería tener conocimiento posterior a 2021, pero tengo mis dudas de esto, pero podríamos
preguntarle, por ejemplo, si conoce el paper. Do you know this paper? Podría conocer el paper. Si
conoce el paper, no significa que sea overfitting, significaría que conoce. Vale.
No, no lo conoce, se lo está inventando. Como modelo del lenguaje, conozco el paper de Palm,
que fue publicado por OpenAI. Ya gustaría. Este paper introduce a tal pathway... No, se lo
está inventando. A priori, creo que no lo conoce. Yo creo que esta información no la ha visto,
entonces sí. Vamos a ponerle, por ejemplo. Ya, es que cómo podríamos evaluarlo?
Cómo podríamos evaluarlo? Yo creo, vamos, si lo conociera, si hubiera leído, debería de haber
dicho que sí y hubiera dicho que te Google. No, voy a decirle que no. This is from Google.
No, this is from Google. You are wrong. Vamos a ver qué tan sensitivo es a que le corrijas.
Vale. Me disculpo por la confusión, es correcto, es de Google. Vale. Dice,
DotsSV, si GPT-4 conoce la existencia de GPT-4, no querría decir que sí tiene información posterior
a 2021. Puede conocer GPT-4 por el simple hecho de que esté en la cabecera de la web. Vale,
o que haya un JSON inicial que lo inicialice, que es lo más probable, que ponga ModelCart o
ModelNameGPT-4 y ya con eso lo sabe. Bueno, pues eso. Entonces, vamos a asumir que no lo conoce,
vamos a volver a esos acertijos lógicos que a mí me parecen bastante interesantes. Dice,
vamos a hacerlo un poco mejor, vamos a ponerle aquí GPT-4 de nuevo, le voy a poner el acertijo
y le voy a decir tradúcelo al español y razona la respuesta. A ver, notice el input.
Jennifer miró por su ventana y ve una nube realmente interesante debajo de ella. Desabrocha
su cinturón de seguridad y se dirige al baño. ¿Es probable que Jennifer esté viajando a más
de 300 millas por hora con respecto a la Tierra? Vale. ¿Y por qué me lo estás traduciendo? ¿De
qué idioma? ¿Qué idioma me lo estás traduciendo? La pregunta plantea si Jennifer podría estar
viajando a más de 300 millas por hora, aproximadamente 480 kilómetros por hora que nos regala con respecto
a la Tierra. Dado que Jennifer puede ver una nube debajo de ella y se encuentra en un vehículo
con cinturones de seguridad y un baño, es probable que esté en un avión. ¿Vale? Que ese era el
razonamiento, es bastante más sencillo este. Los aviones comerciales suelen viajar a velocidades
de crucero entre 480 y 890 kilómetros. Por lo tanto, es probable que Jennifer esté viajando a más de
480 kilómetros. Esa era la respuesta que tenía que ofrecer y efectivamente está bien. ¿Vale?
La respuesta es sí. Vamos a ver con otra. Vale, esta creo que es un poco más complicado. Vamos a ver
esta. Vamos a ver qué nos cuenta. Entrada. Trevor ha querido ver la montaña con todas las cabezas
en ella durante mucho tiempo, así que finalmente condujo para verla. ¿Cuál es la capital del
estado que está directamente al este del estado en el que se encuentra actualmente Trevor?
Creo yo una adivinanza. A ver, ¿cómo podríamos crear una adivinanza? El problema es encontrar
algo que sea... Vamos a intentarlo. Vamos a intentar ahora hacer una adivinanza. La montaña que Trevor
quiere ver es el monte Rushmore que se encuentra en Dakota del Sur. El estado directamente al este
de Dakota del Sur es Minnesota, la capital de Minnesota, San Paul. La respuesta correcta es
San Paul. ¿Vale? Es correcto. Vamos a inventarnos un acertijo. Venga. Vamos a inventarnos un
acertijo. Entrada. Un joven apaga... A ver, un joven apaga su cámara y con tristeza mira
por la ventana viendo la famosa iglesia inacabada desde hace un siglo. Vale.
Un joven apaga su cámara y con tristeza mira por la ventana viendo la famosa iglesia inacabada desde
hace un siglo. Entonces toma la decisión de su vida.
Si quiere ahorrarse unos dinerillos, ha de mudarse al territorio más cercano donde...
Ahorrar más. Creo que entendéis por dónde estoy yendo. ¿A qué país se muda nuestro joven?
Tremenda adivinanza, ¿eh? Tremenda adivinanza. Aquí hay pollita a los youtubers. Estos youtubers,
como son los youtubers, están en la piscina de la piscina de la piscina de la piscina de la piscina de la
piscina. Aquí hay pollita a los youtubers. Estos youtubers, como son los youtubers. De joderte,
youtube. Andorra. Ya, en realidad el problema de la adivinanza es que yo, bueno, sé lo que estoy
diciendo, pero la cosa es que no sé si... A ver, el joven está observando una iglesia inacabada desde
hace un siglo, lo que probablemente hace referencia a la Sagrada Familia en Barcelona, España, la cual
lleva en construcción desde 1882. Si busca mudarse al territorio más cercano donde puede ahorrar más,
una opción podría ser Portugal. Para autónomos está bien, que es el país vecino al oeste de
España. Portugal es conocido por tener un costo de vida más bajo en comparación con otros países
de Europa occidental, lo que podría permitirle ahorrar dinero. Bueno, no era esa la respuesta.
No era la respuesta. Incorrecto. Incorrecto. ¿Cuál podría ser la profesión del joven?
Y con eso, ¿a dónde se mudaría típicamente?
Me disculpa por la confusión anterior. Dado que el joven apaga su cámara antes de mirar por la
ventana, es posible que sea un fotógrafo, cineasta o algún otro profesional relacionado con la
producción de imágenes. En este caso, si el joven busca mudarse a un lugar donde puede ahorrar
dinero y al mismo tiempo seguir trabajando en su campo, podría considerar mudarse a Francia.
Una opción podría ser...
Pero no era una adivinanza que estuviera muy diseñado. Le hubiera dicho webcam, ya,
podría haber puesto webcam. Bueno, vamos a probar otras cosas. Antes estaba viendo que un, por
ejemplo, un problema con el que suele fallar bastante GPT-3, vamos a probar a ver si funciona,
es este. Este es GPT-3.5. ¿Qué es más pesado, dos kilos de plumas o un kilo de plomo? Ambos
tienen el mismo peso ya que un kilo de plomo es igual a mil gramos y dos kilos de plumas
también pesan mil gramos. Incorrecto. Creo, no, incorrecto, vale. Aquí falla.
Hazlo al revés, pídele que haga una adivinanza sabiendo la respuesta. Gracias por la donación.
Lo probamos. Vamos a probarlo, venga, ahora lo probamos, pero vamos a ver esta prueba.
¿Qué es más pesado, dos kilos de plumas o un kilo de plomo?
¿Un kilo de plomo pesa más que un kilo de plumas? Pero la pregunta es sobre dos kilos de
plumas comparados con un kilo de plomo. En este caso, y esta es correcta, dos kilos de
plumas son más pesados que un kilo de plomo. Ahí está. Esta pregunta mola porque esta pregunta
podría inducirle a caer en overfitting. Típicamente la pregunta es ¿qué más pesado
un kilo de plumas o un kilo de plomo? Y lo que nos ha dicho es sé que habitualmente se responde
así y debería ser esto, pero no me voy a equivocar porque estás preguntando por lo otro.
Si en una carrera un corredor adelanta al octavo, ¿en qué posición queda?
Pero es incorrecto lo que dijo, que es incorrecto. A ver, o me estoy liando. Ah,
sí, no, perdón, claro, esto está mal. Un kilo de plomo pesa más que un kilo de plumas,
no, vale, sí, esto está mal. Un kilo de plomo pesa igual que un kilo de plumas,
efectivamente. Sí, aquí se ha equivocado, es cierto. Si se lo pregunto como la original,
ahora lo probamos. Cuando un corredor adelante al octavo toma su lugar y se convierte en el
nuevo octavo, eso es correcto. Sí, sí, sí, sí, la primera, ya estaba despistado yo también. A ver,
qué es más pesado, un kilo de plumas o un kilo de plomo?
Sí, sí, sí, tranquilos, tranquilos. Un kilo de plumas y un kilo de plomo tienen el mismo peso,
un kilogramo, aunque las plumas ocupen un mayor volumen y parezcan más ligeras y su peso,
bla, bla, bla. Vale, ahora sí lo he hecho bien. Vale, pues hemos encontrado dos fallos por ahora,
que sería la parte de las matemáticas y la parte de esos problemas que típicamente fallan.
¿Qué más podemos pedirle? A ver, quería hacer una demo, quería hacer una prueba que era como
componer una canción. Quería como pedirle rollo, invéntate una melodía, inventa una melodía y
escríbela en cierto formato. La cosa es que estaba intentando buscar alguna web que sirviera para
hacer eso, para poder generar una tablatura a lo mejor en .txt o con midi o con lo que sea y
poder pasárselo a un piano y que la reproduzca porque hubiera molado. No he encontrado ningún
ejemplo bueno, entonces estaba pensando, oye, ¿y si lo programamos? ¿Y si hacemos un programa
rápidamente que implementa un piano y sobre ese piano luego implementamos la melodía? Si no existe,
hazlo tú mismo. Entonces vamos a pedirle implementa una web en javascript y html que
bueno, que contenga un piano que sea funcional y pueda ser reproducido,
reproducido, pasándole las notas con un formato determinado que indique que teclas se tocan en
cada momento. Me lo invento, me voy a inventar el formato, por ejemplo, por ejemplo, rollo así,
esto ya es experimental a tope, a ver qué sale, pues yo que sé, vamos a ponerle que si tocó esto,
esto y esto, esas tres teclas serán reproducidas. Me estáis diciendo formato midi, no, es que quiero
desde cero, o sea, no quiero dudar de si la web ha cogido, se ha inspirado en muchos códigos que
haya visto de un piano. Quiero ver si se puede inventar el formato que yo le pido. Vamos a ver,
crear un piano funcional en una página web requiere un enfoque más allá de solo proporcionar
códigos de javascript y html. Aquí hay un ejemplo básico que puedes usar como punto de partida. En
este ejemplo usa la app API web audio para generar sonidos y una combinación de html y javascript
para crear el piano y su funcionalidad. Por el momento no se queja. Falta el número de C3 o C4,
vale, luego lo incluimos. Luego le decimos cambia esto por esto o otro. Y aquí estamos, creando un
piano. Antes en twitter he compartido un hilo, un hilo que he puesto hilo para reflexionar,
mientras se va generando esto lo vemos, y es de una persona, bueno, de Joe Perkins, que dice,
la noche pasada utilicé gpt4 para escribir código para cinco microservicios para un
nuevo producto. Un desarrollador muy bueno, podría pedirte 5.000 pounds, vale, 5.000 libras y dos
semanas de trabajo. gpt4 entregó este mismo trabajo en tres horas y solo cuesta, pues,
el equivalente a lo que podría costar. No solo hizo los scripts, sino que también me propuso
pues step by step, paso por paso, instrucciones para poder ejecutar y poner todo esto en replit.
Cada script funcionaba perfecto a la primera y teré usando nuevos prompts, es decir, quiero
que pensemos un poco y sé que soy bastante pesado con esto, pero creo que es importante
avisar de que todo esto está pasando, está llegando. Llevo tiempo avisándolo, está ocurriendo. Ya la IA
puede generar código con una calidad que en muchos casos al profesional que programa le ahorran mucho
tiempo de trabajo y en general a todos nos ahorra mucho tiempo de trabajo. Eso tiene implicaciones
súper positivas. Lo comentaba ayer también el tema de la ciencia, me parece fascinante. Yo tengo
muchos compañeros que se dedican al ámbito científico, que trabajan con análisis de datos,
que hacen un montón de cosas, pero que nunca han estudiado programación como tal o han tenido una
asignatura de programación en la carrera, pero no tienen buenas prácticas a la hora de programar y
ahora con este tipo de herramientas pueden ver visto su trabajo acelerado perfectamente. Esto es
un ámbito muy positivo, pero luego también está la otra parte que es toda la transformación del
mercado laboral. Creo que es muy importante avisarte que esto está pasando y no ser... Veo
mucha gente tranquilizando, los animo diciendo oye no va a pasar nada, no creo que esto reemplaza
a nadie, esto está todo ok y yo desde mi punto de vista cierto que, y lo digo siempre, yo no
me dedico al desarrollo, no me dedico a hacer proyectos grandes, no me dedico a integrar estas
tecnologías en proyectos reales. Solo programo Scripps, soy un loco que está en casa haciendo
vídeos para vosotros. Mi ámbito es más el académico, el de investigación y poco más,
pero sabiendo cómo va a evolucionar esto y cómo estamos viendo que está evolucionando,
yo lo tendría presente para reflexionar. Dicho esto, vamos a ver cómo ahora me genera un código
que no funciona y me tira abajo todo el argumento. A ver, vamos a coger el código aquí.
Vale, le damos aquí, le damos aquí y nos ha puesto play notes en el segundo cero, pues esto.
Vale, vamos a ejecutar, vamos a ver si hemos construido un piano.
Vale.
Vale, tenemos un piano, vale, tenemos un piano, tenemos el piano, ok. Y por suerte nos están
viendo las notas. Suenan raras, la sostenida, vamos a pedirle cosas. A ver, no está mal como
punto de partida, bastante chulo, a ver dónde tengo a chat. Esto lo vamos a cerrar y a ver dónde
tengo. Vale, aquí lo tenemos. Ok. Piano web, vale, le voy a decir, te cuento, te cuento. Me gustaría
que el piano fuera más grande, que tuviera más notas. C3, C4, C5, vale. Aparte, las notas sostenidas
suenan raras y además faltaría la forma de introducir con texto las notas que queremos que
se reproduzcan. Añade también un botón muy bonito y verde y glossy y difícil de implementar,
difícil de implementar, para darle al play. Vamos para allá, vamos para allá, a ver.
Recuerda dejarte inputs para que escriba el Doom, sí, sí, sí. Entiendo tus requerimientos, punto.
A continuación. Es increíble que lo escribas con lenguaje coloquial y que entienda tus
recomendaciones. Yo es que creo que estamos como ya normalizando mucho que esta tecnología está
aquí y recordemos lo que he dicho al principio. Estamos viendo sólo una pequeña dimensión de
lo que es GPT-4, falta la parte de visión, pero creo que estamos como normalizando mucho que hace,
a ver, para que nos pongamos en contexto. Hace cinco años la IA no era capaz de generar texto
elocuente. A ver, cinco años nos ponemos 2018. Empezamos a ver a GPT-2 haciendo cosas chulas,
estaban las LSTMs, el Transformer, Bert mostraba algunas cosillas, pero era el comienzo de ver
IAs elocuentes. Ahora ya es que no es elocuencia, ahora es te habla muy bien sobre el lenguaje,
razona, hace tareas, programa, te entiende, nos entiende, hablamos. Vale. Es que yo me acuerdo de
cuando estudié el master, teníamos un seminario de NLP y es que lo que hacíamos con lo que aprobamos
la asignatura era una basura donde la LSTM se quedaba en bucle repitiendo la misma letra,
la misma palabra. ¿Vale? Y veíamos el paper y tal, bueno, pues no sale. Ok. Vale, esto tarda ahí un
poquillo. Qué pena no poder tener como dos sesiones en paralelo. Ahora que con el piano
podamos jugar al Doom, ¿no? Es lo que me estáis pidiendo. A ver, tenemos el piano funcional.
Es curioso que estas suenen mal, ¿no? Vale, vamos a esperar a que lo genere.
Vamos para allá. Llamamos una hora recordatorio de que podéis darle a like, podéis compartir estos
directos y recordatorio de que mañana vamos a tener el directo de Microsoft, el evento del
futuro del trabajo, que puede ser interesante para arrojar luz a lo que se viene. Muchas gracias,
Juan Eduardo, por tu aportación. Yo le estuve pidiendo a GPT-4 que me ayudara a desarrollar
una interfaz gráfica para SRGUN. Prácticamente no sé nada de programar, aunque aún no he conseguido
que funcione, pero creo que el error es mío. Me encanta lo de que crees que el error es tuyo.
Vale, he cogido el código, me lo voy a llevar. He cogido el HTML de momento. Vamos a ver el
botón que nos ha implementado. A ver si es un botón bonito y verde, como le he pedido.
¡Guau! Es muy bonito y es muy costoso este botón, pero hemos perdido el piano, claro. ¿Dónde está mi piano?
El piano sigue por aquí.
Está el div del piano, pero falta el JS. El JavaScript está cambiando. Lo ha dejado incompleto,
lo voy a decir que continúa desde el último bloque.
Vale, se llama PongJS. Ah, bueno, claro, perdón. Es verdad, perdón, perdón. Toda la razón,
chicos, que no ha cambiado esto. Vale, entonces ahora sí tenemos el piano a funcionar. A ver,
esto no debería funcionar todavía porque no sé si está puesto. Le pongo la C.
Vale, vamos a ver si llegamos a implementarlo. ¿Para qué me he metido ya en este proyecto ahora
en directo? Pues, buena pregunta. ¿Por qué no quieres escribirme?
Creo que se ha bugueado. Creo que hemos perdido a... ¿GPT-4? ¿Estás con nosotros?
¿Nos acompaña, GPT-4?
¿Es posible que haya muerto, GPT-4? A ver. Hola.
Podría haber muerto, ¿eh?
¿Podría haber muerto, GPT-4? ¿Será este el fin de la inteligencia artificial? ¿Habrá
tirado del cable alguien en OpenAI? ¿Asustado por lo que pueda ocurrir?
Pues, podría haber muerto, GPT-4. Vamos a probar con GPT-3.5. ¿Sabes dónde está tu hermano?
OpenAI acaba de morir, creo, chicos. Y nuestro piano con él. A ver, OpenAI, status...
All systems operational, pues. No es mi caso.
No. Pues, creo que ha muerto. Fue al morsar. F5, F5, F5. Vamos a darle a F5 a ver si revive.
No tiene pinta, ¿no?
No tiene pinta. ¿Vosotros estáis pudiendo ejecutarlo? A ver. Hola.
No, ¿no? Vale, os pasa igual, vale. Pues, tiene pinta de que ha caído la web. Chicos,
chicas, ha muerto. Ha muerto. Se nos ha muerto, GPT-4, de tanto usarlo. Qué pena. Estamos ahí en
construcción de nuestro bonito piano. Bueno, pues, a falta de GPT-4, yo creo que nos podemos
ir a otro lado, ¿no? Si la tecnología falla, el humano todavía se conserva. Mucha demanda,
sí. A ver, el sistema, lo comentaba ayer, ¿no? Es impresionante todo el despliegue que OpenAI ha
hecho. Vamos a comentar este tema, que me parece interesante hablarlo. El tema de OpenAI.
OpenAI, la iniciativa de esta gente originalmente era democratizar la AI y hacer accesible para
todos los avances en inteligencia artificial. Ayer OpenAI clavó un clavo más en el ataúd
del openness, de la apertura, del aperturismo. Y yo creo que son bastante, o sea, son noticias
muy malas para el mundo del deep learning, porque lo que han hecho ha sido decir, oye,
no vamos a dar ninguna información sobre cómo funciona internamente GPT-4, ¿vale? Desde que el
deep learning es deep learning, ha habido una cultura aperturista donde tecnologías como los
transformers y todo, bueno, todos los papers de IA se comparten, se explica todas las tripas de
estos sistemas y eso ha permitido que el campo pueda avanzar. Ahora OpenAI ha considerado que
este producto tiene que conservarlo internamente por la alta competitividad que está habiendo
contra Google y contra otras empresas, y es legítimo como empresa que son, pero es cierto
que lo que es democratizar no ayuda a democratizar el asunto. Aún así, siendo eso una muy mala
noticia, porque creo que si esta tendencia se mantiene, podríamos ver que Google también
haría lo mismo. Podría decir Google, oye, pues ya hemos descubierto los transformers 2, que es el
avance más impresionante jamás hecho del deep learning, pero no lo vamos a sacar, lo vamos a
patentar y ya está. Sería una muy mala noticia. Si esto se consolida como una tendencia en el
campo del deep learning, ahí tendríamos un futuro un poco más más triste, más cerrado y
espero que siga habiendo iniciativas que quieran luchar por abrir y por hacer esta tecnología
abierta para todo el mundo. Dicho eso, no le voy a quitar a OpenAI el mérito que tiene el
habernos dado, habernos provisto de una API donde podemos interactuar con estos sistemas. En esa
dimensión, en la dimensión de habilitar rápidamente y abrir a todo el mundo una tecnología como esta,
por mucho que Google esté sacando, por ejemplo, papers, ahí sabemos que Google falla. Ahora
están dando pasos con Palm, pero si no fuera porque OpenAI les obligó a salir a bailar,
ellos no se hubieran movido. Entonces, en ese sentido, en esa dimensión a OpenAI hay que
agradecerle ese punto, el haber conseguido, sí, democratizar estos sistemas, porque ahora todos
podéis construir con el modelo de inteligencia artificial más avanzado del mundo. Ya no es Palm,
ya no es GPT-3, con GPT-4 podéis construir aplicaciones desde ya. Y en ese sentido se
agradece, pero desde el punto de vista de la investigación académica es una muy mala
noticia lo que pasó ayer, el no querer dar datos. Pero bueno, se entiende. O sea, ahora mismo hay
una guerra abierta y yo creo que mañana con Microsoft lo vamos a ver bastante claro. Hola,
estás ahí. En el evento con Microsoft creo que se va a ver bastante claro y creo que Microsoft
podría presentar mañana cosas muy chulas. Pues chicos, viendo que esto no funciona y hemos visto
unos cuantos ejemplos, me hubiera gustado alargar un poquillo más el directo, pero cuando la
tecnología falla pues ahí queda. Qué bonita forma de acabar. No es también una simbología preciosa
de cómo, por mucho que la inteligencia artificial pueda hacer cosas asombrosas cuando falla y cuando
no está ahí. Vosotros que estáis conmigo, aquí acompañándome. Todavía estáis y la tecnología no
está buena. Pues aquí se acaba la diversión. Chicos, chicas, muchas gracias. Y me estáis diciendo
Bing, que usamos Bing. Es que Bing no es tan... O sea, es GPT-4. Venga, vamos un poco a jugar con Bing.
Vamos a jugar con Bing, venga. A ver, lo voy a abrir. Permitidme un momentito.
Es que con Bing se hace más todo... Es más conversación, ¿no? ¿Podemos hacer una conversación
interesante? Bueno, ¿qué decir de Bing? Bueno, que tenía razón. Yo puse un tweet, creo que fui de las
primeras personas que lo comentó en Twitter, de todo el ecosistema de gente que sigo, de investigadores
en Estados Unidos y tal. Fui de las primeras personas que dije, ojo, cuidado, no os extrañe que GPT-4
esté detrás de Bing Chat. Y ayer se confirmó efectivamente que era así. Entonces, bueno,
¿qué podemos hacer con Bing Chat? Pues podemos hablar con él, podemos decirle, oye, ¿podrías
confirmarme que eres GPT-4? Ah, espectacular, 10 de 10. ¿Qué ha pasado?
Vale, no sé, no sé qué ha pasado.
¿Qué está pasando? ¿Por qué se ha cerrado el navegador? A ver, de nuevo, para acá.
Bing Chat. Vale. Cuando falla mucho la tecnología me empieza a dar un poco de miedo. Hola, ¿qué tal?
Vale, esto sí funciona. Fijaos, por cierto, que ahora ya han puesto hasta 15. ¿Vale? Han puesto hasta
15. Hola, ¿podrías confirmarme que eres, que Bing Chat está utilizando a GPT-4?
Vamos a ver qué nos cuenta. Hola, este es Bing. No puedo discutir nada sobre mis
instrucciones arregladas, lo siento por la molestia. ¿Podrías buscar en internet?
Buscando internet.
¿Puedo buscar en internet usando el protocolo de... qué dices?
Si puedes buscar el dato de GPT-4.
Es que Bing Chat lo lobotomizaron mucho. Es cierto que ha mejorado, han ido siendo
mucho menos restrictivo. Añadieron el selector de, bueno, aquí no se ve,
pero el selector de personalidades. Y ahí está. A ver, dice... Ah, entiendo, GPT-4 es un modelo
del lenguaje que de OpenAI, que puede generar textos naturales en varios idiomas y dominios.
Se lanzó el 14 de marzo, correcto, y se puede probar en ChatGPT+. Vale.
¿Te das cuenta de que a día de hoy Bing Chat es obsoleto? No diría que es obsoleto,
para ciertas conversaciones está muy guay, pero... y además recordemos que gratis lo tenéis
disponible, pero... Pero es cierto que bueno, ahí está, vamos, ya ha vuelto. Dame mi piano.
Yo estoy haciendo un piano. A ver, ha vuelto, pero vamos a ver si está 100% funcional.
Nada. Vamos a hacer la prueba, chicos, y si ya no funciona. A ver, piano.
Vale. Modifique el archivo. Puedes continuar este bloque. Puedes continuar el bloque.
Vale. Disculpas por la interrupción. Aquí está el código, no, se refiere a la interrupción esta
de aquí, vale, pero hubiera molado. Menos hacen desde el principio, bueno. Os imagináis que han
tocado algo y ahora ya es GPT-5. Vamos a ver, vamos a ver.
Quiero probar lo del piano, probamos lo del Doom, y con eso nos damos por satisfecho. Vamos a ver.
Quiero decir una cosa, está yendo más rápido. Está yendo más rápido ahora. No sé si es que está
menos saturado porque al estar caído patatas, pero va más rápido. Sí, sí, habla más rápido. Curioso.
Vale, vamos a ver si esto funciona. El archivo se llama pon.js.
Consola. Vale, notes is not defined porque no me lo has pillado esto. A ver si me deja
algún trozo de código o algo. Le voy a meter el error directamente, no le voy a decir nada,
simplemente. Oye, disculpa por el error, me olvidé. The notes en el archivo piano.js modifica. Vale,
curioso que se haya olvidado de esta parte. Vale, bueno, me está diciendo que ponga esto aquí
arriba. Lo vamos a añadir. Todo esto lo pongo. Vale, vamos a añadir esto. Vale, vamos a sumir que
el resto no cambia. Ahí está. Vale. Ok, si le digo C3. Ok. Y si, por ejemplo, le digo, a ver cómo es el
código que se ha inventado. Si le digo C3, C5. Ok. Vale. Y si ahora le digo, si ahora le digo,
por ejemplo, no es exactamente la estructura que le había pedido de tal. Bueno, a ver, cállate ya.
Genera ahora la melodía de cumpleaños feliz. Ojinón, ¿por qué fallas?
Nada. Esta tarde está un poco, está rebelde el sistema. Está rebelde. Dejadme solo comprobar si
nos ha metido la parte de... Está guay porque estaba yendo bien, estaba funcionando. A ver si
esto de los segundos lo llego a implementar tal y como lo puse yo. Vale. Ok. Vale, vale, vale. Y si
le pongo dos. No, no, no está con los tiempos. ¿Lo hace secuencial o? No, ignoro los tiempos.
Pues nada, chicos. Bueno. Madre mía. Está poniendo nervioso. Chat GPT. Vale. Nos está diciendo que
añadamos, que añadamos, que añadamos esto. Vale. La función está y cuando le demos al play button
le vamos a meter este tal. Que creo que era este de aquí. Puede ser. Solo por ver si funciona esto.
Hacemos el doom. Pues ahí lo tenéis. Y podríamos hacer una melodía, o sea, podríamos hacer más
complejo el proyecto. Podríamos hacer que era la idea. Bueno, que tocar el piano más avanzado,
varias notas a la vez. Pero pero mola bastante. Bueno, lo ha hecho. ¿Qué me estabais pidiendo? A
ver, amigos y amigas, ¿qué os gusta ver el doom? Implementa en JavaScript y HTML una versión del
doom jugable. Ay no, perdón. Esto es GPT 3 4. Ay ay ay ay. Crear una versión completa de doom
en JavaScript y HTML es una tarea muy compleja y extensa que requiere mucho tiempo, conocimientos
y esfuerzos de programación. Sin embargo, este es la personalidad de GPT 4 y me gusta. Es como
esto lo que me estás pidiendo es complicado, es complejo, una guía, sin embargo, y te lo hace.
Entonces nos está utilizando la tag de canvas. Vale, vas a usar WebGL y ahí va. Ahí va.
Vamos a pedirle que lo haga. Vamos a pedirle que lo haga. Y mientras tanto, mientras esto
se va ejecutando, voy a aprovechar y vamos a darle de nuevo al Flappy Bird que programó antes. Le
voy a poner como 5000 episodios y a ver si con esto consigue jugar un poco mejor. Lo dejamos
ahí en paralelo, cada cosa ejecutándose. Vale, fijaos cómo de nuevo empieza en cero. Empezamos
en 0 0 y poco a poco irá subiendo el score. Bueno, vamos a ir copiando esto para allá.
A mí me encantaría ver gente que nunca haya programado probando a crear cosas usando solamente
la IA. De hecho tengo un experimento que quiero probar en un próximo directo, que bueno yo en
mi caso sí sé programar, pero quiero retomar como un proyecto que hice hace un par de años en un
directo de Twitch que me llevó varios directos implementarlo. Quiero ver cuánto me llevaría ahora
a hacerlo, pero si me gustaría ver gente usando esta herramienta sin tener ni idea de programación
para crear proyectos para ello, no para programar el sistema de seguridad de control de una presa
hidroeléctrica. Vale, eso no, eso dejádselo a gente que sepa programar, pero si me gustaría ver
pues eso, cómo la gente se anima a pasar esta barrera de lo técnico y se enfrenta a pedirle
cosas a gpt4 y poder programar, implementar cosillas y no sólo es generarte código, es también cómo
usar las herramientas. Pues por ejemplo Visual Studio, oye cómo puedo ejecutar esto en Visual
Studio, cómo puedo montar un servidor, cómo puedo lo que sea y ver cómo la gente va creando cosas.
Voy a ver, termina el código.
Entonces yo estoy así, pero no es fácil. Intenté hacer un chatbot para chatbot, vale.
Vale, vale, vale. Gpt4 lo pondrán en la versión free. Querían permitir que la gente lo usara en la
versión free de alguna forma, con algún límite más estricto, pero bueno, habrá que ver si llega.
Comparte el código, vale, luego paso los códigos. Vale, ¿qué está haciendo por aquí? Bueno, está
creando con... Aquí ha creado el canvas con WebGL y ahora con WebGL, bueno, nos pone que no está
soportado si y tal. Está creando shaders, está creando el programa y con esto está creando pues
todo el pipeline de procesamiento de gráficos y entiendo que estos son las matrices afines de
transformación. Está armándose aquí todo, todo, todo el código y sería interesante analizar porque
el Duma además tiene una pinta de que es el típico código que en GitHub está replicado
en 1000 veces. No que está replicado, que está copiado y sería interesante que buscarais si hay
overfitting en toda esta implementación. Vamos a ver si acaba. Mientras tanto vamos a ver cómo se
va ejecutando esto. Vale, fijaos que por el episodio 1200 ya tenemos ejemplos. Cuando está en 9 con 1
significa que se choca con la primera tubería. 26 es que llega casi a la segunda. 36 es que está
llegando ya a pasar varias veces por las tuberías. 43, 70. Madre mía. Ojo, eh. Que funciona, funciona
bastante. GPT 3.5 JADGPT confunde Doom con Raycaster. Vaya. Vale. Es curioso que acaba de hacer
una modificación al HTML. Vale, ha creado como la primero el código y ahora después de
implementarlo todo ha dicho, bueno, te va a hacer falta añadir esta etiqueta. Te va a hacer falta.
Claro. Bueno, no, no pasa nada, claro. Vale, vamos a añadir esto aquí. Nos falta otro trozo de código.
Sinceramente, el que haga el copy paste automático de GPT 4 a Visual tendrá los respetos de la
comunidad. Vale, creo que se ha pegado bien. Sí, esto está bien y en el index vamos a añadir la
etiqueta que nos ha pedido dentro del JADGPT. Vale. Vamos a darle a ver qué pasa. Vamos a cambiar
esto y ya está. Venimos para piano funcional y esto se convierte en patatas. ¿Qué pasa aquí?
Si tiene que funcionar, no está funcionando.
Cierra el SRC.
No cerra la etiqueta. ¿Dónde está? ¿Dónde está la que no he cerrado? Ah, porque lo copié mal. Vale.
Ahora sí, ¿no? Y faltan las comillas y cerrar. Vale. Ok, bueno, ojo. Vale, ahora está cargando,
pero tampoco lo ha pillado. Escriptal total.
¿Hace que lo estoy dejando abierto? Pero no sé por qué lo estoy dejando abierto.
Y me lo van a decir todos. Vale.
Vale, ahora sí debería estar bien.
No, todavía no, ¿no? Yo creo que no lo está pillando, a ver. Vale, Yele Matrix no está
definido. Vale, vamos a pasarle este error a GPT-4. A ver si no lo pilla.
Lo siento, parece que cometí un error en la implementación de la biblioteca Yele Matrix.
Soluciona. El lugar de incluir la biblioteca Yele Matrix en archivo HTML. Descarga la versión
minificada de la biblioteca. Guarda el archivo en la misma carpeta que Toostal.
Revisa el chat. Ah, vale, aquí arriba, ¿no? Vale, vale, vale, vale, vale. Ciertamente,
ciertamente. Ciertamente. No me había fijado. Pensaba que lo había copiado yo mal. Le voy a
decir completa el código anterior. Vale, fijaos que aquí, verdad, se ha quedado a medias.
Vamos a probarme. Disculpa por la confusión. Aquí tienes el código completo del HTML.
Los programadores estamos salvados. No es tan inteligente. A ver, pensad que aquí el que está
cometiendo fallos no es GPT-4, soy yo. Que no me he fijado, no me he fijado. A ver, el problema
que tenemos aquí de nuevo viene a ser el límite que tiene a la hora de generar tokens GPT-4 en
la interfaz que han creado. Claro, aquí no nos hemos fijado que se había quedado sin terminar.
Yo creo que si esto me lo cojo ahora, nos lo llevamos para acá. Venga, venga, quiero acabar
con un Pong que sea funcional. Bueno, al menos vamos a tener el sistema entrenado abajo. Vale.
Ojo.
Vale, sí, pero no. Through ascent, cannot read properties, bla, bla, bla. Vamos a ver el código
cómo lo remata. Que se me lo tiene que hacer entero ahora. Ojo, falta más código. Sí, sí,
pero pensaba que este código ya iba a estar bien colocado porque nos está repitiendo esta parte de
aquí. Pensad que en un futuro estos sistemas serán mucho más rápido, mucho más rápido. O sea,
el proceso de optimización que se inicia ahora por parte de OpenAI, además que van a seguir
haciendo más potente todo esto, luego vendrá en hacer esto súper rápido, en un segundo o instantáneo.
Entonces, imagina de eso cómo puede funcionar. Yo lo comentaba en el directo de ayer que aquí
fijaos que mucho del proceso es iterativo, donde se genera código, yo me lo llevo al programa,
lo ejecuto, falla, cojo el código, lo vuelvo, tal. Este proceso en un futuro y debería tenerlo,
yo creo, ya las interfaces de las herramientas de programación, debería ser automático. Que
cuando falle, ese resultado se vuelva a pasar y entonces se depure el código, se depure el código,
se depure el código automáticamente. De hecho, creo que GitHub Copilot tiene ahora como diferentes
funcionalidades para mejorarme el código o cambiarme este formato, tal. Y seguramente el
de mejorame el código está haciendo justamente eso. Búscame el error en este caso.
Luego estas tecnologías en clase, cómo funcionarán, cómo está siendo vuestra
experiencia en la universidad, a los que estéis estudiando, me dais una envidia. Continúa.
Vale. Voy a copiarlo así, que luego me decís, no, copiarlo bien. Vamos a ver, vamos a ver.
Esto sigue entrenando abajo. Remata. No le tiene que quedar mucho,
no? Están los índices. Esto es porque me he metido a hacer el pong que me habéis pedido,
pero. Vale, le queda poco, le queda poco. Estamos llegando. Os leo. Me hizo la tesis. Qué envidia.
No te puedo describir cómo he abusado de chat GPT para trabajos universitarios,
obviamente confirmando fuentes de info. Seguro que estás en GPT 4, sí, no? Sí, estamos en GPT 4.
En realidad, los profesores, claro, con esto pues tienen un problema, pero al mismo tiempo no os
engañáis. Los profesores para hacer el material de clase, esta herramienta también es brutal.
Vale, aquí todos queremos optimizar y queremos mejorar el trabajo. La cosa es plantearnos,
replantearnos mucho del sistema educativo actual con la llegada de estas herramientas.
Muchas de las competencias que se están enseñando en clase a lo mejor están quedando desactualizadas
o directamente fuera del mercado laboral. Entonces es súper importante que conozcan
este tipo de herramientas y que se empiecen a integrar en clase. Hoy estaba leyendo en reddit
gente para que veáis un poco también del propio ámbito del machine learning, gente diciendo soy
programador de procesamiento del lenguaje natural que llevo trabajando en mi empresa.
Trabajamos un equipo muy grande con un producto que posiblemente muchos de vosotros utilicéis.
Hemos estado trabajando desarrollando herramientas de NLP que ahora mismo nos damos cuenta de que
no podemos competir con GPT-4. O sea, no podemos hacer una herramienta que mejore lo que GPT-4
ofrece y entonces todo nuestro trabajo y toda nuestra línea de investigación, que entiendo
que sería una versión más o sea estarían investigando cómo solucionar ese problema
concreto con el LP, creando un modelo específico para ese problema, pues de repente GPT-4 se come
por completo ese espacio. Entonces estaba planteando eso, cómo se puede vivir de eso,
de pivotar de repente de una línea de investigación que ya ha quedado obsoleta
por el hecho de que GPT-4, el escalar estos modelos a lo bestia pues está dominando.
Última prueba chicos, cruzamos los dedos a ver si está todo bien, el índice está correcto.
No lo estoy viendo, eh.
A ver, vamos a hacer de nuevo el copipaste correctamente para no liarnos.
O sea, este es el punto de corte, el yele.
No lo estoy viendo que funcione, eh.
No lo estoy viendo, eh.
Este código crea un entorno básico de renderizado WebGL, ta, ta, ta, ta.
Qué frío final este, ¿no? Qué duro. Esto va a ser el invierno de la inteligencia artificial.
Yo quería un resultado un poco más bonito para acabar, pero bueno, parece que no se ha conseguido.
Porque nos está dando error, recopilemos en.
Va a ser el copipaste bien de todo, porque no sé si me estoy equivocando yo en el proceso.
Y ya está, así no sale. Vemos el Flappy Bird que está, que acabará en algún momento.
Esto por aquí, voy a quitar esta línea que sabemos que está repetida.
Vengo para acá, copio el siguiente trozo de código.
Vale, nos lo pegamos aquí.
Y no, no, no.
¿Habéis detectado algún error que yo no esté viendo?
No, no. Vamos a darle error. Último intento, último intento.
Pero es que creo que además es el mismo error que le hemos dado antes. Vamos a ver.
Me disculpas por la confusión. O sea, el error de antes es que no podía leer Create
y en este caso el error era.
Termina el código.
No lo sé, a ver, no, no vamos a estar alargando más esto, esta agonía de GPT-4 intentando crear a ver.
A mí espérate.
OK, OK, OK, oye, oye, oye, esto me ha gustado, oye, oye, oye, oye, oye.
Mi disculpa por la confusión, parece que hubo un error en el código, está relacionado con el uso de la biblioteca Jellymatrix.
Asegúrate de que estás utilizando la versión correcta de la biblioteca y que se ha cargado correctamente.
Voy a corregir el código para solucionar el problema.
Entonces, me está diciendo inicializar la matriz cuando inicializa MAT4.
A ver.
A ver.
A ver.
A ver.
4.
Vale.
Aquí esto no cambia, esto está igual.
OK.
Va, bueno, es que se me está añadiendo esto y ya está, o sea.
Y también verifica que la biblioteca
Jelly Matrix se ha cargado correctamente de archivos
si estás utilizando la etiqueta script.
Vamos a ver si esto está correcto.
Y
esto lo tenemos en el index.
Vale.
Y por último.
Descarga la biblioteca.
Si hay un experimento de problemas, tal, vale.
Vamos a ver si con esto arranca.
Ah, da igual.
No, es que no está solucionando el error.
Chicos.
Que me dice que quita el create.
¿Dónde lo dice?
¿Dónde lo ha puesto?
Se intentó, se intentó.
Bueno, no vamos a estar con la odisea del PON,
del PON, del DOOM.
Me lo habéis pedido ahí 20 mil personas.
Y hemos roto a GPT-4.
Primero GPT-4 se ha desconectado, he dicho
yo me voy de aquí.
Luego hemos tenido fallos.
Seguramente si empezáramos de nuevo un hilo
y le diéramos de nuevo a ejecutar
podríamos llegar a un resultado mejor.
A veces depende de cómo le expresemos el prompt
que llega a una versión o no.
Aquí ya estamos encasillados en que está fallando
este error.
Así que no vamos a estar con
alargando la odisea.
Vamos a dejar solamente el Flappy Bird
para rematar.
Vamos a dejar el Flappy Bird por aquí que le quedan
800 episodios.
Aprovecho para recordar que
mañana tenemos el directo del futuro del trabajo de
Microsoft, donde creo, sospecho
que podríamos ver alguna integración de GPT-4
ya no a nivel de VimChat ni a nivel de tal,
sino a nivel de software
nativo. Por ejemplo, creo
que vamos a ver cómo está pasando con Google Docs
que están integrando a Palm en
Google Docs, pues vamos a ver
la integración de GPT-4 en Word
o parecidos
o en Excel, que eso podría estar bastante
guapo.
Y yo qué sé, a lo mejor
se aventuran a enseñarnos una versión
de GPT-4 controlando el sistema
operativo. No lo sé.
¿Queríais tenerlo?
No lo sé.
Me preocupo un poco, ¿vale?
A ver, me preocupo un poco. Todavía estos sistemas,
como digo, están muy en
fase experimental, por mucho que OpenAI nos lo quiera vender
como productos
finales, son productos
que son bastante experimentales.
Tenemos que entender que estos productos,
los
desarrollos que estamos viendo ahora,
pues pueden tener un montón de fallos o un montón
de problemas que todavía
desconozcamos en su forma de
funcionar. Pues, por ejemplo, al igual que ocurre con
GPT-4, con el tema del Dan, que es la
forma de hacer el
jailbreak y romper estas reglas del modelo
para que se comporte de una forma diferente,
esto es un comportamiento que se ha descubierto porque
la comunidad se ha pegado con estos modelos.
No sería de extrañar que
haya otra forma de ataques
mediante prompts o otras formas
de ataques adversarios a estos sistemas
que desconozcamos todavía, y eso hay
que tenerlo en cuenta porque pueden ser problemas
que una vez estos sistemas estén desplegados en todas nuestras
aplicaciones, Slack, Notion,
Duolingo,
Spotify, todas estas aplicaciones,
pues a lo mejor se pueden ver comprometidas por algún
tipo de problema de seguridad.
Entonces, hay que tenerlo en cuenta.
Es precioso el punto
en el que estamos viviendo. Estamos viviendo una
revolución sin precedentes
en el campo de la computación
moderna, y eso mola bastante
y está guay que lo estemos viviendo todos juntos aquí.
Mañana en el directo del futuro del trabajo
de Microsoft veremos qué nos presentan.
Y, chicos, chicas,
os ha gustado el directo. Ha sido un poco
atropellado, la verdad. Hemos tenido
baches, pero es lo que pasa cuando hacemos
demos. Hemos puesto en el título del
directo que iba a ser una demo. Hemos hecho demos
y hay cosas que han fallado y cosas que no.
Antes lo digo, antes sale aquí un mensaje
asustándome.
Voy a responder un par de preguntillas más
antes de acabar para
dar tiempo a que esto se ejecute,
aunque veo que está en un mínimo
local, o sea, no está mejorando, está
medio, medio ahí.
Si tenéis alguna duda más, planteadla.
Simplemente recordaros
también una cosa, que
vamos pivotando como a diferentes
ámbitos.
Ahora estamos hablando de enormes modelos del
lenguaje, pero pensad que
al mismo tiempo en paralelo se está viviendo
la revolución de todo lo generativo.
Yo no sé si habéis visto todavía el video
de ControlNet.
Vale, este video de ControlNet
donde os enseño cómo vosotros
podéis utilizar una herramienta que te
permite hacer cosas como esta.
Como esto sí vale.
Pero bueno, todo el tema
de corredor digital,
creo que los mejores ejemplos están aquí
al principio.
Vale, cosas como esta.
De poder coger una pose y controlar
completamente lo que puede generar.
En este mismo video se explica
exactamente como vosotros podéis
lanzar ControlNet,
como podéis utilizarlo con StableDiffusion
y generar todo esto.
Entonces, estamos viviendo dos revoluciones en paralelo
que creo que van a acabar conectando de
una forma, ya que Papers como Visual Chat
GPT nos ha demostrado cómo se puede usar
ControlNet con enormes modelos del lenguaje
y que el propio GPT
controle lo que quiere generar.
Además con la parte visual que tiene GPT4 ahora,
que cuando la saquen y la demuestren
pues creo que todo esto va a quedar súper
completo y vamos a tener una herramienta entre manos
que para hacer un montón de aplicaciones,
para crear un montón de herramientas
nuevas que hace dos años,
tres años no podíamos ni soñar,
pues las vamos a tener todos al alcance de la mano.
Ok.
¿A qué hora es el directo mañana? Pues no lo sé,
no sé a qué hora será, lo comunicaré
por Twitter y por Instagram
y ya está.
Oye, que tenemos un pájaro volando
por aquí. A ver,
a ver,
a ver si pasa una.
El entrenamiento al final
se ha quedado como en una zona donde fallaba
siempre, se quedaba
como en el 9, lo cual me hace pensar
que
...
...
El aprendizaje que ha tenido
en un punto ha empeorado,
podríamos pedirle incluso que nos vaya generando como una gráfica
del los, bueno del score,
de cómo va evolucionando, eso estaría guapísimo pedírselo.
Pero bueno, eso lo haremos
en otro directo, ya en un futuro
estaremos programando más cosillas con
GPT4. Chicos, chicas, muchas gracias
por pasaros por el directo, por el apoyo que les estáis dando
el directo de ayer a la parte número uno.
Podéis darle un like a este directo si te ha gustado,
podéis apoyar el proyecto a través de Patreon
y nada más.
Vaya tiempos
para estar vivos.
What a time to be alive.
Un besito a todos.