logo

midulive


Transcribed podcasts: 11
Time transcribed: 4h 7m 4s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Después de la charla que vamos a tener ahora con 12SV,
cada vez más nos viene con noticias que le tengo que preguntar
porque he visto así el reojo cuando alguien está hablando
que OpenAI ha anunciado algo y he dicho,
joder, pero esto está alineado.
Esto está alineado.
12SV nos va a explicar en exclusiva esto.
Me lo va a explicar porque no me he dado tiempo de informarme de nada.
Y estoy hasta temblando, estoy hasta nervioso.
Es increíble, amigos y amigas, es un verdadero privilegio
tener aquí a uno de los mayores exponentes
del mundo de inteligencia artificial.
Una persona que admiro mucho por todo el trabajo que ha hecho
y que me alegro de todos sus éxitos.
Y es un verdadero privilegio tenerlo aquí.
Así que le vamos a dar la bienvenida a Carlos Santana, 12SV.
¡Midu!
¿Cómo estás, amigo?
Hola, ¿qué tal?
¿Qué tal, crack?
Muy bien.
Estoy nervioso, Midu.
Madre mía.
Vaya días mesitas, por Dios.
Ostras, es que OpenAI, amigos, para que no sepa,
OpenAI siempre que detecta que Carlos se va a ir a algún lugar
en un viaje, sacan algo.
Hoy he hecho la trampa.
Hoy he hecho la trampa porque había rumores.
Siempre hay rumores de que van a sacar cosas,
pero hoy vibraba más el universo.
Y yo tenía un viaje justo que me iba a pillar en el momento
en el que ellos publican, que es a las 7 de la tarde.
Y estaba esta mañana en casa y digo, me va a pillar, me va a pillar.
Y me he comprado un billete a dos horas antes,
con lo cual me ha dado tiempo para llegar al hotel,
armarlo todo aquí.
He hecho un directo ahí de hora y media hablando con la gente.
El spa ya subió en el canal.
Y ahora vengo aquí a poder contártelo.
¿Qué han sacado?
¿Qué han sacado?
¿OpenAI, O-I-A-U?
Uno, yo qué sé.
Es que he visto el nombre.
O-U-U-I-A.
Sí, he visto el nombre rápidamente.
¿Qué es esto?
¿Hemos llegado ya a la inteligencia artificial general?
No, todavía no.
Yo creo que OpenAI se le puede reconocer que son muy buenos abriendo camino en el mundo de la AI y del deep learning, pero son malísimos poniendo nombres a las cosas. Lo que han sacado es esto de aquí, que es OpenAI O1, es un nuevo modelo.
Esto, para quien quiera entenderlo, es como si tú coges GPT-2, que fue el primer modelo, GPT-2, GPT-3, GPT-4, esos son modelos de lenguaje que ellos vieron una oportunidad de investigación en esto de coger a los transformers, hacerlos muy grandes y a ver qué pasaba y salió muy bien.
Y con esto tienen una saga de modelos que es lo que todos utilizamos hoy en día. Pues esto reinicia de nuevo el contador con un nuevo tipo de modelo, un nuevo tipo de arquitectura, con lo cual ahora tenemos dos sistemas diferentes.
Tenemos los modelos GPT-s, realmente GPT-s-os, porque son los modelos OVNI, que salieron este año. Y tenemos los modelos O, que va a ser O1, O2, O3.
¿Y qué son estos modelos? ¿Por qué son interesantes? Porque ponen sobre la mesa la capacidad de razonar en la inteligencia artificial. Hasta ahora lo que teníamos eran modelos de lenguaje que eran muy buenos a través del lenguaje de poder hablar y en este aprendizaje del lenguaje aprendían ciertos patrones que servían para incluso hacer tareas relacionadas con razonamiento, lógica, matemáticas.
Todos hemos usado Copilot, todos hemos utilizado este tipo de modelos para programar. Pero realmente un modelo de lenguaje está pensado para que aprenda a predecir la siguiente palabra, a generar lenguaje y ya está.
Este nuevo modelo no. Este nuevo modelo está entrenado y está pensado para hacer, pues esto, ¿no? Para poder plantearle problemas más difíciles y que dedique tiempo de procesamiento a no darte una respuesta inmediata, sino a razonar y generar un proceso mental que le lleve a una solución correcta.
Yo lo he estado probando con mi comunidad ahora en directo y pinta bien. Pinta bastante bien.
Hostia, ¿se puede probar?
Pinta bastante bien. Míralo. A ver si algunos se lo han activado, a otros no. Tienes que ir arriba en el selector de modelos.
Tienes que apagarme la suscripción. Ahí está. No, no lo tienes.
No lo tengo.
No, al día sea. Necesitamos que alguien tenga acceso para hacer pruebas.
Qué lástima, qué lástima. Hemos probado a quien vio en directo y tal. Para las pruebas que has hecho, tema de código. ¿Has probado algo de código por probar o...?
Muy poquito.
Muy poquito. He probado, nada, a pedirle que me hiciera una imagen con SVG para ver qué tal entiende esta abstracción de las imágenes a código, pero no.
Bueno, poca cosa. Pero bueno, lo que ellos nos cuentan es que este modelo va a ser muy bueno, sobre todo para...
Es que tengo la garganta.
Para todos los temas de STEM, ¿vale? Todo el tema de científico, tecnología, ingenier, matemáticas. Va a ser muy bueno.
Y planteaban que, por ejemplo, no sé si está por ahí el dato, que lo han usado para las típicas pruebas estas de CodeForce.
Vale, a ver, lo han presentado. Y donde el GPT-4 llegaba a un 13 al percentil 13, este llega al percentil 89, ¿vale?
¡Hostia! ¡Hostia! ¡Hostia, qué diferencia!
La litchi.
Sí, muy bestia.
Ah, y además veo que han sacado también un mini. O sea, ¿está el normal y un mini o es el mini?
Exacto, sí. Bueno, es interesante, sí.
Ah, vale. O sea, tienen uno que es la...
Han sacado... A ver, bueno, esto para quien entienda la...
Sí, para quien entienda un poco la actualidad de las filtraciones que ha habido de OpenAI los últimos meses,
esto ya se lleva especulando que iba a salir, que eran los famosos modelos Q estrella, Strawberry, son estos.
Y ha sacado OpenAI dos modelos, el O1 Preview es como el más potente,
y luego han sacado uno más económico, que creo que va a ser el que se use para temas de código.
Porque sí mejora la parte de generar código más correcto, pero tú al final, cuando lo pruebes, ya verás que a veces se pega 40 segundos pensando una respuesta.
Claro.
Claro.
Si tú quieres tener una interacción más en tiempo real con el modelo, como hemos tenido hasta ahora,
me imagino que el modelo mini va a tener más sentido.
Y luego, internamente, ellos están usando un modelo más potente todavía.
Hostia, claro. Esto es lo que han sacado ahora. Esto es lo que han sacado ahora.
Claro, claro.
Estos son tres minutos. Entiendo que esto es como la demostración.
Vamos a ver. Vamos a ver un poco.
Te va a encantar porque uno de los vídeos, para demostrar la parte de programación,
se trae a la gente de Devin.
¡Hostia! ¡De Devin! ¡Hostia!
Sí, sí.
A los de Cusain.
Claro, aquí está, por ejemplo, preguntando de implementar un Snake con HTML.
Y le está preguntando a Uno Preview.
Entiendo que, claro, es lo que decías, que tarda como bastante más en contestar, ¿no?
Como que le tarda un tiempo.
Sí, se lo piensa.
Pero mola porque te puedes abrir como mientras...
O sea, que digo que esto está en velocidad 2x o 3x, ¿no?
Sí, la verdad que está tardando muy poco, así que intuyo que sí.
Pero mola porque luego te puedes desplegar como toda la cadena de pensamiento del modelo
y puedes ver un poco cómo va moviéndolo.
Y está bastante chulo.
También hay una prueba que me ha parecido bastante impresionante
de pasarle un código cifrado y decirle, descifralo.
Intenta encontrar el patrón y tal, ¿no?
O sea, un código bastante sencillo, pero que el modelo lo razona bien.
Y así estamos.
Ahora estamos entrando en la nueva etapa de modelos capaces de razonar,
que van a intentar solucionar un poquito estos problemas de alucinaciones,
falta de planteamiento lógico...
¡Guau!
Mira, ya tenemos aquí el...
Aquí tenemos el Snake Game, el jueguecillo.
O sea, que al final también lo podemos utilizar tanto para generar,
para preguntar, para iterar.
También funciona para código.
Pero, ostras, se desbloquea.
Y esto sí que es algo totalmente novedoso.
O sea, ahora sí que OpenAI, de nuevo, está en la delantera,
porque habíamos tenido durante un tiempo un montón de modelos,
que si Cloud, que si habíamos tenido Llama, ¿no?
Que parecía que le estaba pillando un poco el ritmo a OpenAI,
pero ahora OpenAI este producto es totalmente distinto.
Esto es nuevo.
Ahora la cosa es si realmente va a generar tanto valor para OpenAI
como fue ChatGPT, porque ChatGPT todo el mundo
mínimamente entraba a la interfaz y encontraba un uso.
Esto ya empieza a ser para, yo qué sé,
tienes un problema matemático súper complejo
y quieres que te lo resuelva la IA.
Vale, esto no lo tiene cualquier persona.
Claro.
Entonces creo que le pago...
Mira, ahí está el de Devin, justo.
¿Este es el de Devin?
Arriba.
¿Este?
No, no, el anterior, el anterior.
Ah, este.
Perdón.
Vale.
Vamos a ver qué es lo que comentas.
Ah, mira.
No, el de arriba, el de arriba.
A ver.
Es que va con un delay.
Ah, vale.
Hostia, pero claro, es que es curioso como muchas empresas
que van apareciendo justamente, como Devin,
de repente se quedan obsoletas por un nuevo producto de OpenAI, ¿no?
Pues mira, es interesante.
Esto Sam Allman lo dijo en una entrevista
donde planteaba que las empresas que quieran sumarse a la revolución de la IA
tienen que pensar muy bien cuándo se están poniendo delante de las vías del tren de lo que ellos están haciendo.
Claro.
Pero si tú construyes sabiendo que el modelo está en el corazón de tu modelo de negocio, por ejemplo,
yo creo que lo que hace Cosign y lo que hace Cognition y lo que hacen todas estas empresas que están saliendo ahora
es usar el modelo del lenguaje y han construido una estructura exterior donde se le puede sacar bastante rendimiento.
Entonces, si el modelo interno mejora, ese producto mejora automáticamente.
O si el modelo se hace más barato, que es lo que ha ido pasando durante todo este año,
el modelo de negocio de estas empresas funcionan.
Yo creo que Cosign, en concreto, está muy bien posicionada para aprovecharse de esto.
Bueno, hay, hostia, mucha gente, claro.
Pero bastante loco.
Y luego...
Sí, sí, sí, dime, dime.
No, que digo que el lunes Microsoft tiene presentación de Copilot.
Van a presentar algo nuevo.
Y claro, va a estar seguramente apoyado en todo esto que están sacando hoy OpenAI.
Claro, ostras, claro.
O sea, es que está todo alineado.
Te iba a comentar, cabrón, que mucha gente...
Tú, la cara que muchas veces presentas es...
Oye, todos los avances de inteligencia artificial, que hoy bien va esto, esto y lo otro.
Pero, ¿qué hay de los miedos que tienes?
¿Tú tienes algún miedo con toda la evolución de la inteligencia artificial?
Más allá de lo típico de, voy a quitarnos el trabajo.
No, pero un miedo real que digas, ostras, con estas cosas,
me da miedo desde deepfakes, desde generación de información falsa,
desde...
No sé, ¿hay algún miedo?
¿O no crees que nos debamos preocupar por esas cosas?
O sea, sí, el tema del trabajo sí me genera miedo.
No porque me vayan a quitar a mí el trabajo.
Justamente hoy ha salido una IA espectacular de Google que puede hacer bastante bien mi trabajo.
Que es como una IA que tú le pasas un paper y te arma un podcast de dos personas hablando sobre ese paper
que no lo puedes diferenciar de un podcast real.
Bastante espectacular.
Pero no me preocupa que me vayan a quitar a mí el trabajo,
pero sí me preocupa en el macro el efecto que la IA pueda tener.
Que en el corto plazo haya tanta gente que pueda quedarse desempleada
o que se vea obligada a tener que transformarse, reciclarse a nivel laboral
y que los estados y los países no sepan adaptarse bien a esto.
Con lo cual, de repente, tengamos problemas sociales que sabemos que pueden derivar en cosas más peligrosas.
Eso sí me preocupa porque al final es una tecnología con un enorme potencial
que está planteando una nueva revolución tecnológica
y sabemos que en todas las revoluciones el proceso de transición siempre ha tenido, pues,
bueno, ha sido abrupto.
Y eso sí me preocupa.
Pero más allá de eso, luego el tema de desinformaciones y todo esto,
sí, creo que la IA puede generar malos usos
y que vamos a ver Cambridge Analytica y casos similares,
pero no me quitan el sueño.
Ya, yo una cosa que me preocupa es un poco lo que dices,
porque estamos teniendo como esos debates de jornada laboral de cuatro días
o de 35 horas, ¿no?, aquí en España.
Y yo la verdad es que pienso un poco más allá y me río un poco porque pienso
es que como esto de la inteligencia artificial llega a un punto,
no vamos a tener que debatir si son 35 horas.
Vamos a tener que debatir ya mucho menos que 35 horas, ¿no?
Porque la productividad va a llegar a un punto tan bestia
en general, ¿eh?
No hablo solo del mundo de la programación, hablo en general.
Que es obvio que vamos a poder hacer más con menos tiempo
y, por lo tanto, vamos a tener que empezar a abrir,
a hacer preguntas filosóficas independientemente un poco del signo político,
porque yo sé que esto en política, pues, la gente de derecha, de izquierda,
cada uno lo verá de una forma, pero es una realidad.
La productividad se va a disparar.
Eso es tal cual, así.
La productividad se va a disparar y la pregunta es,
con todo ese tiempo extra que ganamos,
¿qué queremos hacer, no?
Ah, exacto.
Yo no lo veo, eso no lo veo como un problema, o sea,
lo veo como una oportunidad para decir,
oye, si ahora podemos hacer más con menos,
podemos intentar hacer más,
podemos buscar como sociedad objetivos más ambiciosos,
que al final, esto ya lo comentamos hace dos años,
que me he escuchado antes de la charla,
seguimos teniendo los mismos problemas,
cambio climático, transición energética,
tenemos problemas que hacen falta todavía ser solucionados,
pirámides poblacionales invertidas, desigualdad,
todo eso se tiene que solucionar, inestabilidades políticas,
entonces, creo que todavía la humanidad tiene bastantes deberes por hacer,
y creo que un boost de productividad, en muchos casos, nos puede ayudar.
Lo que creo es que, más allá del boost de productividad,
lo que hace falta es, quizás, redefinir nuestros objetivos,
a lo mejor vamos a ser súper productivos en el mundo digital,
vamos a poder hacer todo lo que hacíamos antes en el mundo digital mucho más rápido,
y a lo mejor nos encontramos que esto no tiene ninguna traslación en PIB,
en que esto no cambia,
porque a lo mejor la gran parte del trabajo que hacemos en el mundo digital,
pues a lo mejor no tiene tanto valor como pensamos.
Sí, sí.
¿No? Podría ser.
Eso es un buen punto, no había pensado en eso,
pero es verdad, ¿no?
Como que a lo mejor estamos inflando el impacto que realmente tiene,
y luego nos damos cuenta que tampoco era para tanto.
Sí, yo, vamos, te digo, a nivel economía patino por todos lados,
pero me suena que eso se ha visto,
que toda la revolución digital y de internet
tampoco ha tenido un efecto tan bestia en la economía
como han tenido revoluciones anteriores, ¿no?
Como que sí hemos creado una economía digital muy potente,
pero que realmente no se refleja, ¿no?
Luego en las métricas reales que nos interesan.
Entonces, podría pasar que con la IA ocurra esto,
pero bueno, lo bueno es que la IA al final también tiene
una manifestación física que también va a tener un impacto,
que es todo el tema de robótica.
Lo que yo no sé si va a ser tan cercano, ¿no?
Lo que estamos viendo es que ahora la inteligencia artificial,
cuando la sumas a la robótica,
permite que la robótica funcione mejor.
Lo que yo no tengo tan claro es si realmente luego
la robótica va a tener ahora su época durada
o vamos a tener que esperar a que haya otro ciclo, ¿no?
Claro, sí. Puede ser, ¿no?
Es interesante como la inteligencia artificial ha borrado de un plumazo
otras tecnologías que parecían que iban a ser impersonantes,
como el metaverso, como todas las criptomonedas, ¿no?
Ha venido la inteligencia artificial y se ha llevado todo por delante.
La verdad es que la robótica es lo único que me podría imaginar
que ahora mismo podría, es imposible que haga lo mismo,
pero lo único que podría trasladar la atención un poco, ¿no?
Si conseguimos, porque veo que lo están intentando mucho
con estos robots casi humanoides,
que con inteligencia artificial, pues,
¿tú crees que va a pasar
o vamos a tener inteligencia artificial para rato?
No, inteligencia artificial vamos a tener para rato.
La cosa es que luego a nivel mediático nos acabe aburriendo
y ya no sea tan interesante porque, bueno,
al final la IA se va a convertir en algo tan ubicuo
que en el futuro tú no vas a estar planteándote,
ah, estoy programando con inteligencia artificial.
Tú dirás, estoy programando y punto, ¿vale?
Porque al final, bueno, ya lo estamos viendo que está invadiendo
muchas de las profesiones que tenemos hoy en día.
El diseño gráfico ahora no se puede entender casi sin usar
inteligencia artificial.
La programación no se puede entender casi sin usar modelos
que te vayan ayudando y cada vez más todo va integrándose
y va a pasar igual que pasó con la computación.
Todas las profesiones, el que estudia biología,
el que estudia estadística, el que estudia informática,
todos trabajan con ordenadores, ¿vale?
La computación ya se ha permeado
en todos los aspectos de nuestra sociedad.
Entonces yo creo que con la IA va a pasar igual
y seguramente nuestros focos se vayan moviendo a otras cosas.
Pero sí es cierto que ahora lo que está de moda es la IA,
ya va estando de moda desde Ketchup GPT Lopeto
y eso ha hecho que se nos sume mucha gente del metaverso
y de lo otro.
Se nos han vendido a nuestro grupito.
Una cosa, más o menos creo que tú tenías mi edad, ¿no, Carlos?
Tenías 30 y algo, 30 y largos, más o menos.
Depende.
¿Cuánto, cuánto?
¿Te quieres meter ahí?
No, no, solo...
No, no, no me quiero meter ahí, no me quiero meter ahí.
Yo creo que eran 30 y algo, pero bueno, no pasa nada.
Si no son...
30 y algo son, pero no 30 y largos, 32.
Ah, 32, 30 y algo, 30 y algo.
Vale, 30 y largo soy yo.
Pero bueno, el tema es que teniendo esa edad...
Y parece al revés, ¿eh?
Maldita sea.
No, no, no parece al revés para nada.
Pero si estás...
Además, si veis a Carlos sin camiseta,
sin inteligencia artificial,
que he visto por Instagram alguna foto,
vais a flipar que el tío está más fuerte que el vinagre.
Pues el tema es que lo que te voy a decir es que nosotros con nuestra edad como que hemos vivido...
Yo creo que tú has pillado el paso de analógico a digital y has vivido muchas revoluciones,
no tan impresionantes como la industrial, pero muy poco tiempo, ¿no?
Como que hemos visto las evoluciones a una velocidad espectacular.
Y ahora con la inteligencia artificial es increíble que es semanal casi, ¿eh?
Es semanal.
Sí.
Claro, dentro de 20 años, ¿este ritmo se va a seguir manteniendo para la gente que viva...
Que, por ejemplo, que nazca ahora en el 2024?
¿Tú crees que ese ritmo de evolución va a ser constante
y que la inteligencia artificial lo va a desbloquear?
¿O que digamos que estamos llegando como a un zenith de ese ritmo de evolución?
Pues fíjate que no...
No lo sé, pero...
O sea, no lo sé porque es muy difícil, ¿no?
Hacer predicciones de cuándo una gran tendencia va a explotar,
pero creo que sí hay muchos brotes por el camino
que podrían dibujarnos una especie de línea interesante.
Veo muy prometedor, por ejemplo, en los próximos años
todo lo que está pasando en la parte de biomedicina, ¿vale?
Todo el tema de investigaciones con proteínas, tratamientos genéticos con CRISPR,
todo eso, al margen de la inteligencia artificial,
ya de por sí está teniendo una revolución bastante potente.
A eso le suman la inteligencia artificial
y el combo está trayendo herramientas que van a acelerar mucho las cosas.
En el tema de transición energética también estamos viendo
que estamos entrando en una fase donde el abaratamiento, por ejemplo,
de las placas solares también empieza a ser algo bastante potente,
que nos puede bloquear el tener una energía mucho más barata,
mucho más limpia, que eso también es bastante prometedor.
En el futuro un poco más lejano tenemos siempre el sueño
de que está una década de la energía de fusión.
Sabemos que se sigue investigando la computación cuántica,
que todavía eso está muy lejos de estar implementada de forma práctica,
pero está también por ahí.
Entonces sí creo que hay como un árbol de tecnologías bastante interesante.
Y sí es cierto que la inteligencia artificial como herramienta
y también las otras que he comentado,
te permiten moverte mucho más rápido por este árbol tecnológico.
Y luego además en el futuro este árbol tecnológico no,
ahora mismo no podemos visualizarlo al completo.
Seguramente haya muchos misterios que todavía desconozcamos,
igual que hace 50 años no podías imaginarte pues todo lo que está pasando ahora.
Y yo creo que sí, que nos vamos a mover muy rápido
y que estamos entrando en una curva exponencial cada vez más alta.
Yo creo que cuando de repente se estudie todo lo que ha pasado
en estos últimos 15 años en inteligencia artificial,
claro, 15 años ahora viviéndolo nos parece muchísimo,
pero es que en el año 3000 cuando se estudie la historia,
esto va a ser un, nada, una línea en un libro de historia.
Y dirán, bueno, pues de repente las máquinas no hablaban y ahora sí,
las máquinas no hacían arte y ahora sí,
las máquinas no hacían vídeos y ahora sí.
Entonces está pasando todo muy rápido, realmente.
Y una cosa que comenta Samalman también a veces,
parece que lo tengo aquí como si fuera mi profeta,
pero es que lo he escuchado muchas entrevistas,
es que realmente todas las revoluciones digitales de internet y todo esto,
en un futuro se verá todo compactado como la misma cosa,
porque sin la llegada de internet, sin toda esta digitalización
y todos estos datos que generamos,
no podríamos tener nada de lo que estamos viviendo ahora,
de inteligencia artificial.
Entonces, visto en el futuro,
todo cobrará sentido como una misma revolución.
Ha sido bastante polémico las declaraciones que hizo Samalman
diciendo que, claro, sin poder entrenar sus modelos
con contenido de copyright,
no sería capaz de tener el avance que están teniendo,
que le sería imposible.
Esto me parece que va a ser siempre un tema polémico en el mundo
y que va a acompañar a la inteligencia artificial,
el tema del entreno de los modelos,
y yo me imagino que tú tienes una opinión muy clara de si entrenar modelos
es válido con contenido de copyright y tal,
pero el tema, un poco hablando de ese debate filosófico que teníamos antes,
¿tú crees que llegará el momento en el que de alguna forma
se le compensará a gente que haya creado contenido
o eso ya es imposible volver atrás?
Yo creo que es complicado porque, por ejemplo,
un modelo de generación de imagen,
cuando te genera una imagen y le pides que te haga un,
yo qué sé, un chico con un flequillo pelirrojo,
ese flequillo pelirrojo lo puede haber aprendido
de miles de millones de imágenes.
¿Cómo le vamos a asignar a una persona?
Esto te lo tengo que acreditar a ti, ¿no?
Entonces me parece muy complicado.
Igualmente las palabras de Alman, en ese caso,
yo las pude entender también de otra forma.
Se puede entender de forma directa como lo que lo hemos entendido todos
de si no entrenamos con copyright no podemos hacerlo,
pero creo que también se estaba planteando ahí la parte técnica
de lo contrario,
de si ellos quisieran hacer un entrenamiento ético responsable
sin usar datos con copyright,
esto es casi imposible porque en realidad en internet
nunca hemos respetado el copyright, ¿vale?
o la propiedad intelectual.
Cuando alguien hace un fanart de Mickey Mouse,
hace un fanart de Mickey Mouse.
Entonces ya con eso el modelo está aprendiendo,
aunque tú filtres todas las imágenes de Disney reales,
el modelo va a aprender que existe un ratón
que tiene esos patrones, ¿no?
Porque a lo mejor alguien lo ha dibujado.
Entonces, eso también te plantea una duda que es,
vale, si vamos a recompensar a alguien porque su imagen,
porque esta imagen que hemos generado,
pues podemos trazar que viene de este artista,
si de repente hay un problema legal,
también vamos a atrasarlo con el artista que dibujó ese fanart,
por ejemplo.
Claro, claro.
Entonces, está todo tan enredado y es tan complejo
que es muy difícil.
Yo creo que hasta que no aparezca una gran empresa que diga,
bueno, pues Nintendo, ¿no?
Vamos a denunciar esto aquí.
Creo que no se van a intentar plantear soluciones,
pero me cuesta desde la parte técnica
ver una solución a este problema.
De cara al año que viene,
imagínate que te vienes a la MidoConf,
siguiente año,
y estamos hablando otra vez aquí,
igual que hace dos años,
estoy hablando...
¿Dos años?
¿Cómo ha pasado el tiempo, Carlos, tío?
Dos años.
Para mí parecía que había sido este año.
Y me dices, me dices,
no, fue dos años.
Y yo, ¿qué?
¿Dos años?
Dios mío.
Pero a mí lo que me parece loco,
¿sí?
A mí lo que me parece loco es que
cuando hablamos fue en diciembre de 2023
que había salido ChatGPT,
con lo cual no es exactamente hace dos años
porque hace dos años
todavía no había salido ChatGPT
y para mí la salida de ChatGPT
fue hace 40, ¿vale?
40 años.
Yo creo que salió Internet
y luego ChatGPT.
O sea, se me ha hecho larguísimo
estos dos últimos años.
Me parece increíble
todo lo que hemos avanzado realmente
en estos dos años
hasta el día de hoy.
Pues el año que viene,
estamos hablando aquí en la MidoConf,
estamos hablando otra vez,
hostia, Carlos, sí,
OpenAI ha anunciado otra vez otra cosa
y te ha pillado de viaje,
increíble, ¿cómo puede ser?
Y la pregunta del millón,
¿qué es lo que te gustaría
que estuviésemos hablando?
Pues yo creo que para el año que viene
me gustaría, primero,
que lo que se ha presentado hoy
siga la misma carretera
que ha seguido los modelos GPT,
que es mejora de capacidades,
es decir, que razonen los modelos mejor
incluso que ahora
y que sea más barato, ¿vale?
Una cosa que os vais a encontrar
cuando probéis este nuevo modelo
es que está limitado
a 30 usos semanales.
30 usos semanales.
O sea, hay que pensarse bien
las tonterías que le vamos a preguntar
al modelo.
¿Por qué?
Porque computacionalmente es muy caro.
Cuando esto se va abaratando
y lo bueno es que
como son modelos de investigación
están súper suboptimizados
porque son descubrimientos
recién salidos del horno,
cuando esto se empieza a poner
en producción
y se deja que los usuarios
lo usen y todo esto,
ahí es cuando OpenAI
puede empezar a trabajar
en optimizarlo.
Y lo que ha pasado
con los modelos GPT
desde que salió GPT4
hace un año y medio
es que su precio
se ha abaratado en 6 veces
o 8 veces,
una burrada.
Entonces,
con los modelos de razonamiento
me gustaría que fueran más rápidos,
más baratos
y más
y mejores todavía,
¿vale?
Eso por una parte.
Y cuando tengamos esto conquistado,
el siguiente nivel
que OpenAI
y otras compañías
quieren conquistar
es el tema
de agentes autónomos,
¿vale?
el coger estos modelos
que parece que razonan bien
y planifican bien
lo que quieran hacer,
encapsularlo dentro de herramientas
como Devin,
como Replit,
como todo lo que estamos viendo
o dentro de robots
y pedirle que hagan tareas.
Decirle,
oye,
quiero que me configures
la MiduConf
para que arranque el directo
hasta ahora
y tenmelo todo optimizado
y vete lanzando tweets
y que la IA sepa coordinarse
y gestionar
todas las herramientas necesarias
para poder hacer eso.
Sería la leche.
Y yo creo que ese es
el siguiente paso
que el año que viene
van a estar
conquistando.
Además,
vamos a tener
el año que viene,
seguramente a principios de año,
la salida del nuevo modelo
que será la evolución
del GPT-4
porque lo que estamos viendo hoy
no es GPT-5.
Ese GPT,
lo que tenga que ser,
se está entrenando ahora
y también tengo mucha curiosidad
por ver qué va a ser.
Pues,
mira,
justo estábamos hablando
y he vuelto a probar
y ya tengo acceso.
Justo,
así que nada.
¿Tienes?
A ver.
Sí, sí,
ahí está.
Y es verdad
que tarda como un poquito más.
Le podemos hacer
alguna pregunta así
de estas típicas
de ¿cuánto pesa más?
¿Un kilo de paja
o un kilo de peluches?
Y me imagino
que este tipo de cosas
ahora no las va a cagar,
¿no?
Pero es verdad
que desentrayando el concepto,
evaluando materiales,
bueno,
está muy bien
que encima
yo creo que
debemos utilizar
la idea artificial
para el tema
de este de carga.
Ambos pesan lo mismo.
Sí,
pero mira,
puedes darle
a la pestaña esa
y ahí puedes ver
los pensamientos
que ha hecho,
¿no?
Oh,
qué chulo,
¿eh?
Ostras.
Guau,
guau,
guau.
Esto se ve muy,
muy pro,
¿eh?
Increíble.
Muy bien,
muy bien.
Guau,
guau.
Bueno,
aquí tengo para jugar.
Amigos y amigas,
Carlos Santana,
Dot CSV,
tiene,
no uno,
tiene dos canales.
Es un verdadero salvaje,
es un muy buen
divulgador
sobre inteligencia artificial.
Tiene ya 870.000
suscriptores en su canal principal.
Si no lo seguís todavía,
te puedes dar a suscribirse.
Está casi todos los días,
si no aquí,
en su canal secundario,
también hablando
sobre inteligencia artificial,
todos los avances
y es impresionante
toda la labor que ha hecho.
Y no te equivoques,
¿no?
Pensen que es porque
ahora está de moda.
Nada,
nada más lejos de la realidad.
Dot CSV está haciendo
un trabajo de divulgación
desde hace muchos años,
mucho tiempo
y lo cual hace que,
mira,
que se la haya ganado.
Así que,
nada,
disfruten
porque con,
comparte un montón
de muy buena información
y mira,
aquí tenéis la,
el 12SV Lab
que ya tiene
11.000.
Sí,
sí,
va bien,
va bien,
va bien.
Madre mía,
qué espectacular.
Pues,
Carlos,
crack,
muchas,
muchas gracias
por pasarte.
Un placer,
como siempre
y muchas felicitaciones
también por todo
lo que estás consiguiendo
y por el ventazo de hoy
que creo que te ha llegado
a 20.000 personas
o algo así.
Qué locura.
Felicidades a todos los programadores.
Nos vemos en la próxima.
Muchas gracias,
Carlos.
Un abrazo enorme.
Cuídate.
Chao.