This graph shows how many times the word ______ has been mentioned throughout the history of the program.
Hola chicos y chicas, bienvenidos al OpenAI Dev Day, el evento más importante que ha celebrado nunca OpenAI
porque es el primer evento de estas caracterÃsticas que está celebrando.
Vamos a empezar en 15 minutos, en 15 minutos arranca el evento, vamos a estar cubriéndolo aquà online.
Vamos a hacer esta previa rápidamente para hacer un recorrido rápido de todo lo que podrÃan presentar, de los rumores, de todo lo que ha salido, de por qué es tan importante este evento.
Pero antes, confirmadme que se ve bien y que se escucha bien, que todo va ok. Yo creo que sÃ, porque nadie está diciendo nada raro por el chat.
Asà que vamos a aprovechar porque hay mucho que decir y hay muy poquito tiempo.
Lo primero sobre este evento es una cobertura de un evento que va a ocurrir en directo.
Lo digo que es la primera vez que ocurre porque OpenAI nos ha convocado, nos ha convocado desde el mes de agosto, finales de agosto, principios de septiembre.
Lanzaron la convocatoria, ¿vale? Todo perfecto.
Lanzaron la convocatoria y claro, nos pusimos todos nerviosos porque, joder, estábamos en septiembre y ya nos estaban convocando para un evento en noviembre que quedaba todavÃa dos meses.
¿Qué podÃan presentar? Pues habÃa muchas cosas que podÃan presentar.
Pero es cierto que OpenAI desde septiembre ha puesto el pie en el acelerador y no ha parado de presentar cosas.
Es una locura el ritmo que toman después de verano y ahora vamos a estar comentando algunas de ellas para separar lo que han presentado de lo que podrÃan presentar hoy, que no es poco según los rumores.
Este evento lo convocaron en verano, como digo, y es un evento presencial.
Es decir, va a haber público, va a haber gente, va a haber, no sé si un escenario, y en ese sentido es la primera vez que hacen un evento de estas caracterÃsticas,
lo cual es muy interesante porque ni siquiera sabemos cómo juega OpenAI como empresa con esto de las filtraciones.
Sabemos que en el mundo tech es muy habitual el secretismo entre eventos y es muy habitual que también se filtren cosas
y que en ocasiones hayan filtraciones interesadas incluso por parte de las empresas para despistar a la competencia.
En este sentido hay mucho que cortar, hay muchas filtraciones interesantes, ahora las comentaremos.
Pero antes quiero enseñaros, porque quiero que entendáis el ritmo tan acelerado que ha tenido OpenAI estos meses,
lo que fueron mis predicciones cuando se anunció el evento.
Cuando ellos anunciaron el evento, vamos para acá, vamos para acá, aquà está.
Esto fue 6 de septiembre.
6 de septiembre.
El 6 de septiembre OpenAI convoca a toda la gente,
Join us for OpenAI's First Developer Conference.
Es una conferencia destinada a los desarrolladores, van a presentar herramientas que sobre todo van a interesar a los desarrolladores,
aunque como sabemos con la inteligencia artificial esto acaba teniendo un impacto real en muchas otras cosas,
porque los desarrolladores van a usar esto para construir cosas que generan terremotos en muchas industrias.
Y yo puse un tuit aquà abajo donde ponÃa probabilidades de lo que esperarÃa de este evento.
En aquel momento, en el 6 de septiembre, dije, probabilidad alta de lo que podrÃamos ver.
Fine tuning. Fine tuning de GPT-4. Es decir, poder coger a GPT-4 y reentrenarlo, configurarlo para tener tú una versión adaptada del modelo.
Probabilidad alta.
Bajadas de precio. Aquà hubo gente que me dijo, pero Carlos, ¿cómo van a bajar el precio si están diciendo que OpenAI está en la quiebra,
que Microsoft pierde dinero, que no sé qué, no sé cuánto?
Bajadas de precio. OpenAI se caracteriza mucho por cada cierto tiempo ir bajando mucho los precios de sus herramientas.
Además, suelen ser anuncios donde presentan un avance en su tecnologÃa, pasó por ejemplo con embeddings,
y luego te bajan el precio. Lo cual es como, vale, me estás dando más por menos.
Y esto es muy interesante porque lo que nos habla mucho también es de lo suboptimizada que está mucha de esta tecnologÃa cuando la presentan.
Cuando ellos sacan GPT-4, al final no deja de ser un modelo entrenado que llevan meses cosiéndose
y que ponen disponible al público, pero que luego se puede aplicar muchas optimizaciones sobre ello.
Entonces, bajada de precio puede responder a estas optimizaciones que OpenAI va aplicando a estos modelos.
Entonces, esto, bueno, lo podrÃamos ver hoy.
Ok. Luego dije probabilidad media. Fijaos, multimodalidad en GPT-4, refiriéndome a la parte de visión.
Esto ya está presentado. En octubre de este año ya presentaron a GPT-4-V, el modelo de visión de GPT-4,
del cual tenemos tanto directo probándolo como vÃdeo comentando sus caracterÃsticas aquà en el canal.
Actualización de Whisper y DalÃ. También la hemos visto. Dalà 3. Sacaron Dalà 3.
También sacaron la aplicación móvil donde entraba, pues, el sistema de Whisper con el text-to-speech,
es decir, el modelo de generación de voz, que todo es un conjunto.
Genera una especie de asistente tipo Her bastante interesante, ¿vale?
Entonces, en ese sentido, también ya esto estarÃa check.
Tenemos check, check.
¿Algún modelo nuevo por la API?
Bueno, esto podrÃamos verlo hoy.
Esto podrÃamos verlo hoy, que aparezcan nuevos modelos, incluso modelos que todavÃa no están disponibles en la API,
pues, por ejemplo, Dalà 3, por ejemplo, el modelo de voz que acabo de comentar, el text-to-speech,
pues, estos podrÃan ser modelos que se podrÃan incorporar a la API.
Y esto es algo que en algunas filtraciones se ha podido ver.
Y luego de broma, al final puse probabilidad nula y puse tres tonterÃas que se me ocurrieron.
La verdad que hacer bromas en Twitter últimamente no me sale muy bien,
pero bueno, puse tres tonterÃas aquà y de ellas, obviamente las dos últimas son bastante tontas,
pero esta, esta la voy a dejar, esta la voy a dejar aquà un poquito en el aire, ¿vale?
Y podrÃa ser una locura, pero, y no es que haya visto filtraciones al respecto,
pero quiero dejarlo ahà como una posibilidad.
Y me explico.
Pensemos una cosa, OpenAI es la única empresa, y es de las que más se le critica,
que no ha liberado ningún modelo open source de este tipo de LLMs, ¿no?
De hecho, ha sido un poco la que ha cerrado el ecosistema frente a nuevos modelos.
Entonces, GPT-3, si lo pensamos, es un modelo que está abierto al público de forma gratuita a través de ChatGPT.
Entonces, OpenAI podrÃa interesarle, en cierta forma, abrir su tecnologÃa al open source para que,
bueno, ya sabemos que poner en disposición de la comunidad un modelo de los tuyos
hace que la gente empiece a optimizar y a trabajar sobre tu tecnologÃa
y que descubra avances que luego tú podrÃas aplicar a tus modelos más potentes,
a GPT-4, GPT-5, lo que estés investigando.
Entonces, eso podrÃa interesarle, de la misma forma que a Meta le interesa liberar a Llama 2 o a otras empresas.
Entonces, eso podrÃa ser una posibilidad que se incrementa un poquito con lo que pasó esta semana,
que no sé si os enterasteis, pero en un paper de Microsoft se filtró,
supuestamente no sabemos si fue un error, si fue una filtración, no sabemos qué fue,
pero se filtró el que podrÃa ser el tamaño real de ChatGPT 3.5,
que es un modelo de 20.000 millones de parámetros, 20 billioms,
que es mucho más pequeño de lo que se pensaba.
Estamos hablando de un modelo que posiblemente OpenAI haya destilado a saco,
que haya reducido enormemente, y de ahÃ, pues, de ahà mi sensación de que podrÃa ser una posibilidad.
La probabilidad sigo dándola baja, pero no digo que sea nula.
Creo que podrÃa ser que OpenAI se le crucen los cables y digan,
one more thing, vamos a poner a disposición de la comunidad a GPT 3.5 para que trabajéis en esto,
pero si queréis el modelo más potente, la versión más potente,
pues GPT-4 seguirá siendo de pago y tendréis que acceder a través del premium.
No sé qué opináis sobre esto, esto es una locura que os regalo por aquÃ,
pero bueno, estos son lo que eran mis predicciones,
que ya vemos que la mitad, o casi todas, están cumplidas.
Y ahora vamos con las filtraciones, ¿vale?
Nos quedan cinco minutillos antes de empezar el Devday.
Vamos a comentar un poco lo que se ha hablado,
de lo que podrÃan ser las filtraciones.
Las tengo por aquà apuntadas, porque son unas cuantas, la verdad.
Por eso me extraña que todo lo que haya salido en internet sean filtraciones reales.
HablarÃa muy mal también del secreto comercial de OpenAI.
Pero bueno, cosas que se han comentado.
Pues sÃ, bajadas de precios de la API seguramente sea algo que podamos ver.
Bajadas del precios de la API.
GPT-4 Turbo, una versión más rápida, más potente de GPT-4.
Además de 128.000 tokens de ventana de contexto.
Es decir, recordemos que los modelos, uno de sus atributos,
una de sus caracterÃsticas más limitantes a dÃa de hoy,
es lo que se llama la ventana de contexto,
que es cuánta información podemos añadir al modelo para que genere una respuesta.
Dependiendo del tamaño de la ventana de contexto,
pues se nos puede limitar el poder añadir un documento con numerosas páginas,
o el poder poner un proyecto de programación que tenga muchos archivos diferentes,
un proyecto que esté estructurado con muchos documentos,
pues entonces no lo podrÃas meter en la ventana de contexto,
con lo cual el modelo no tiene una visión completa de lo que está trabajando.
Todo esto son limitantes que vienen impuestos por la ventana de contexto.
Y la ventana de contexto, si no recuerdo mal, que ahora me bailan las cifras,
creo que GPT-4 originalmente tenÃa 8.000 de ventana de contexto,
y luego se fue ampliando a 32.000 a través de la API.
¿Vale? GPT-4 a través de la API, pues puedes tener los 32.000 tokens de ventana de contexto.
Hoy se está hablando que esto se podrÃa multiplicar por 4 a 128.000,
que creo que serÃa de los modelos comerciales que hay,
si sumamos a Cloud, si sumamos a BART, si sumamos a muchos de los modelos que hay,
serÃa una de las opciones con la ventana de contexto más grande,
porque a dÃa de hoy funcional, dentro del ecosistema comercial,
Cloud con 100.000 tokens de ventana de contexto serÃa la principal.
Aún asà habrÃa que verlo, porque una ventana de contexto grande, el tamaño no es todo.
Chicos, el tamaño no es tan importante, sino el cómo utiliza el modelo ese tamaño de contexto.
Es decir, lo que pasa con Cloud, por ejemplo,
es que la ventana de contexto de 128.000 tokens,
pues sà te da acceso a meterle un montón de información,
pero luego el modelo tiene que estar entrenado para saber trabajar con esa información,
para saber coger todos esos tokens y tener una visión completa de todos ellos
y poder operar de forma satisfactoria.
Entonces, lo que se ha visto con Cloud, y hay creo que ya trabajos que lo han estudiado,
pues que suele prestar mucha más atención a los comienzos y a los finales
de toda la información que le pasa,
pero en un documento a lo mejor las páginas intermedias las obvias.
Entonces tú le puedes poner un documento de, yo qué sé, 50 páginas,
y le puedes decir, oye, en algún punto de este documento hablo sobre patatas,
y a lo mejor le has puesto una frase en mitad del documento que pone,
me gustan mucho las patatas.
Entonces, ahà Cloud suele fallar.
Y esto es lo que me interesa, ver si consiguen traernos un modelo
que tenga mayor ventana de contexto, 32.000, 64.000, 128.000, lo que sea,
pero que realmente la IA pueda operar con esa información.
Si eso nos lo ponen en la mesa, eso es muy potente.
Eso es muy potente porque habilita muchas herramientas interesantes,
y entre ellas la que he comentado, la de la programación.
Esta semana hay otro evento, el de GitHub.
GitHub, si no me equivoco, creo que tiene un evento, no sé si el jueves o el viernes,
hay otro evento.
Ojito, que a veces suelen estar conectadas mucho las cosas,
y ya sabemos que OpenAI y Microsoft colaboran estrechamente.
No me extrañarÃa que hoy a lo mejor otra cosa que se presentara
sea un nuevo modelo de LLM, pero fine tuneado para programación.
Ya sabemos que OpenAI en un pasado trabajó en esta lÃnea,
con modelos como Codex, que han servido de cerebro a Copilot.
Copilot, herramienta por todos utilizada.
A dÃa de hoy Copilot utiliza GPT-4 como tal,
pero a lo mejor OpenAI hoy lo que nos presenta es un nuevo modelo,
también un Codex 2, un Copilot 2, como le quieran llamar,
que esté fine tuneado, que esté especializado para programar muy bien,
con una ventana de contexto grande.
Eso podrÃa ser súper interesante.
Y luego, y luego,
bueno, más cosas que van a estar serÃa la API.
Es decir, la API se va a actualizar no solamente en los precios,
sino que también van a incorporar nuevos endpoints,
pues para, por ejemplo, el modelo de visión,
para, por ejemplo, el modelo de voz,
por ejemplo, el modelo de DalÃ, ¿vale?
Para poder acceder a través de programación,
de forma programática, no a través de ChatGPT,
sino que tú puedas construir tus aplicaciones sobre la API.
Eso parece ser que podrÃa ser otra de las cosas que veamos ahà hoy.
Y luego una cosa muy interesante,
que ojalá se cumpla y parece que va a ser un buen petardazo,
es lo que se ha filtrado en los últimos dÃas,
que tiene que ver con configurar a ChatGPT.
Es decir, el poder crear versiones configurables de tu ChatGPT.
Que tú puedas coger a ChatGPT y decir,
mira, quiero crear mi propio asistente,
pero con una configuración concreta que responda de esta forma,
que tenga habilitada la visión,
tenga habilitado el data analysis,
pero no tenga Dalà 3,
que se ajuste a estos documentos,
que yo le voy a pasar como input,
que a lo mejor utilice plantillas,
que yo le voy a pasar dentro de un PDF.
Es decir, crear nuestros propios asistentes
y además permitir que la gente pueda utilizar
e interoperar con estos asistentes.
Con lo cual estarÃamos hablando de un paso más
por parte de OpenAI hacia lo que serÃa crear
un marketplace de ChatGPT.
Estamos hablando de crear una horda de ChatGPT
donde cada empresa, cada usuario,
cada organización pueda crear su propia versión
sin grandes complejidades,
sin grandes técnicas de prompting,
ni todas estas historias.
Y eso podrÃa ser bastante interesante
porque podrÃa ser un paso más allá
hacia esto,
hacia tener asistentes configurados
justamente para lo que queremos.
Sabemos que una de las obsesiones de OpenAI
es trabajar en lo que se llama la Steerability,
que es como el manejo del modelo,
el poder orientarlo hacia el comportamiento
que el usuario justamente quiere
y esto podrÃa ser un paso bastante potente
hacia ello.
Todo esto ocurre en paralelo
mientras vemos titulares como que Elon Musk
ahora en Twitter ha sacado su propio ChatGPT,
quiso parar hace 7 meses, hace 8 meses,
todo el campo de la inteligencia artificial,
pero sabÃamos que al mismo tiempo
estaba trabajando en su propia compañÃa,
en XAI,
y esta compañÃa pues ya ha sacado su modelo GROC,
que es un modelo de justamente esto,
un modelo de un LLM,
si no recuerdo mal,
pues puede ser que también tenga 20 Billions,
si no se me bailan las cifras,
y que tiene una personalidad un poco rara
porque es como que lo han llevado un poco
para que tenga este humor,
es un poco extraño,
pero bueno,
es interesante ver a otro competidor
dentro del mercado.
En ese sentido,
ChatGPT,
si traen sobre la mesa
el configurador de asistentes,
pues nos deberÃa de poder permitir
crear asistentes de ese tipo también,
un asistente cuya respuesta sea humorÃstica,
cuyas respuestas sean más irónicas.
Lo que podrÃamos hacer a través de la API,
un poco configurando la misión del modelo,
pues en este caso
tendrÃamos una herramienta
en el propio ChatGPT
que nos lo podrÃa permitir.
Todo esto son los rumores,
todo esto es lo que hay sobre la mesa,
y yo espero que OpenAI
no defraude,
primero es decir
que nos traiga cositas interesantes,
yo creo que traen cosas interesantes.
Yo pensaba
que mucho de lo que querÃan presentar hoy
realmente lo habÃan anticipado
por miedo a que Google sacara Gemini,
pero ahora tengo dudas,
ahora ya no tengo tan claro
si realmente han seguido
la hoja de ruta que querÃan,
pero es impresionante
el ritmo que tiene OpenAI
y ojalá hoy no sorprenda.
Voy a leeros un poquito
por el chat
mientras...
¡Uy!
Si ya empieza.
6, 5, 4, 3,
empieza la fiesta.
Ojo, boterÃa.
Entra al escenario Sam Altman.
Voy a intentar...
Una cosa,
voy a estar parando el directo
para hacer comentarios
y voy a intentar estar callado
y va a haber subtÃtulos abajo, ¿vale?
Esto es la información
de cómo va a ser el directo,
pero voy a estar explicando
cosas de lo que ocurre.
Vamos allá.
Buenas tardes.
Bienvenidos a nuestro primer
ever OpenAI Dev Day.
Decidme cómo se escucha.
Recuerda que estás aquÃ
y esta energÃa es increÃble.
Y bienvenidos a San Francisco.
San Francisco
ha sido nuestra casa
desde el dÃa uno.
La ciudad es importante
para nosotros
y para la industria de la tecnologÃa.
y!?
Asà que...
de las cosas que hemos hecho en el pasado año.
Hace un año, en el 30 de novembro,
enviamos el chat GPT como una previsión de investigación
y eso fue bastante bien.
En marzo, seguimos eso con el lanzamiento de GPT-4,
todavÃa el modelo más capaz del mundo.
Os lo subo.
Están haciendo un repaso de lo que ha sido el último año.
Nos lanzamos capabilidades de voz y visión para que el chat GPT
pueda ver, escuchar y hablar.
Y más recientemente...
Hay mucha, no tienes que gritar cada vez.
Y más recientemente, lanzamos Dolly 3,
el modelo más avanzado de imagen.
Puedes usarlo, por supuesto, dentro del chat GPT.
Para nuestros clientes de Enterprise,
lanzamos el chat GPT Enterprise,
que ofrece seguridad y privacidad de Enterprise,
acceso de GPT-4,
más de contexto de Windows, mucho más.
Hoy, tenemos alrededor de 2 millones de desarrolladores,
construyendo en nuestra API
para una amplia variedad de usos,
haciendo increÃble cosas.
Llego los subtÃtulos en inglés, vale.
Y tenemos alrededor de 100 millones de usuarios a dÃa,
en el chat GPT.
100 millones de usuarios, wow.
Cada semana.
Ojo.
Y lo increÃble en eso,
es que llegamos ahà completamente a través de la palabra de la palabra.
La gente solo se encuentra útil y le dice a sus amigos.
OpenAI es la plataforma más avanzada
y la plataforma más ampliamente usada de AI en el mundo ahora.
Esto es cierto.
Pero los números nunca cuentan toda la imagen
sobre algo asÃ.
Lo que realmente es importante
es cómo las personas usan los productos,
cómo las personas usan la AI.
Asà que les gustarÃa mostrarles un video rápido.
Yo quiero escribir algo para mi padre en Tagalog.
Quiero una manera de no romántico
para decirle a mi padre que me encanta.
Y también quiero decirle que él puede rely a mÃ,
pero en una manera que aún tiene el respeto
de una relación con un hijo-to-parente que deberÃa tener
en la cultura de la cultura y en Tagalog.
Cuando es traducido en Tagalog,
I love you very deeply y I will be with you
no matter where the path is.
I see some of the possibility.
I was like, wow.
Sometimes I'm not sure about some stuff
and I feel like I actually charge you
until like, hey, this is what I'm thinking about.
So it kind of give me that more confidence.
The first thing that just blew my mind was
it levels with you.
Like that's something that a lot of people struggle to do.
It opened my mind to just what every creative could do
if they just had a person helping them out who will listen.
So this is a to represent
and you built that with ChatGPT.
ChatGPT built it with me.
I started using it for daily activities like,
hey, here's a picture of my fridge.
Can you tell me what I'm missing?
Because I'm going grocery shopping
and I really need to do recipes that are following my vegan diet.
As soon as we got access to Code Interpreter,
I was like, wow, this thing is awesome.
It's going to stretch.
You can do anything.
I discovered ChatGPT about three months ago on my 100th birthday.
ChatGPT is very friendly, very patient, very knowledgeable and very quick.
It's been a wonderful thing.
I'm a 4.0 student, but I also have four children.
When I started using ChatGPT, I realized I could ask ChatGPT that question.
And not only does it give me an answer, but it gives me an explanation.
Didn't need tutoring as much.
It gave me a life back.
It gave me time for my family and time for me.
I have a chronic nerve pain on my whole left half of my body.
I have nerve damage.
I had like a spine, a brain surgery.
And so I have like limited use of my left hand.
Now you can just have like the integration of voice input.
And then the newest one where you can have the back and forth dialogue.
That's just like maximum best interface for me.
It's here.
Vale, son ejemplos de usuarios que han tenido grandÃsimas experiencias.
TÃpico vÃdeo corporativo comercial del impacto de ChatGPT a lo largo del año.
We love hearing the stories of how people are using the technology.
It's really why we do all of this.
Okay, so now on to the new stuff and we have got a lot.
Uff, tiene muchas cosas.
Hay muchas cosas.
First, we're going to talk about a bunch of improvements we've made
and then we'll talk about where we're headed next.
Estoy nervioso, eh.
Over the last year, we spent a lot of time talking to developers around the world.
We've heard a lot of your feedback.
It's really informed that we have to show you today.
Today, we are launching a new model.
GPT-4 Turbo, ¿vale?
GPT-4 Turbo.
Se confirma.
GPT-4 Turbo.
Nueva versión de GPT-4.
GPT-4 Turbo will address many of the things that you all have asked for.
So, let's go through what's new.
Vamos a ver.
We have six major things to talk about for this part.
Number one, context length.
Lo que estábamos hablando.
A lot of people have tasks that require a much longer context length.
GPT-4 supported up to 8K and in some cases up to 32K context length.
But we know that isn't enough for many of you and what you want to do.
GPT-4 Turbo supports up to 128,000 tokens, tÃo.
Vámonos.
Estas son unas 200 páginas de documentos.
That's 300 pages of the standard book, 16 times longer than our 8K context.
And in addition to a longer context length, you'll notice that the model is much more accurate over a long context.
Ahà está, lo que comentábamos.
Number two.
Uf, esto es muy potente, ¿eh?
Esto es muy loco.
We've heard loud and clear that developers need more control over the model's responses and outputs.
So we've addressed that in a number of ways.
We have a new feature called JSON mode, which ensures that the model will respond with valid JSON.
Okay, qué bueno.
It'll make calling APIs much easier.
The model is also much better at function calling.
You can now call many functions at once.
And it'll do better at following instructions in general.
Vale, estos son herramientas que hay en la API para poder controlar lo que hace el modelo.
You can pass the seed parameter and it'll make the model return consistent outputs.
Ojo.
This, of course, gives you a higher degree of control over model behavior.
This rolls out in beta today.
Hostia.
Vale, vale, vale.
Entiendo que aquà acaba de decir que va a haber también como una forma de, a través de
la API, usar la semilla aleatoria para poder fijarla y poder tener respuestas consistentes.
Y eso está guapo para hacer pruebas.
Okay.
And in the coming weeks, we'll roll out a feature to let you view log props in the API.
Y para poder ver los log props, que estas son como las probabilidades que predice el modelo,
que es no solamente la probabilidad de la palabra que te metes, sino la distribución de probabilidades,
que mucha gente se quejó cuando OpenAI ocultó esto, porque esto justamente sirve para poder hacer...
Hay trabajos que lo usan para el tema de medir incertidumbres y todo esto.
Y por eso yo creo que ha señalado en plan de, hey, chicos, estamos de vuelta.
Vale.
Vale.
Vale.
Vale.
Vale.
Vale.
Vale.
Vale.
Vale.
Vale.
Vale.
Vale.
Vale.
Vale.
Vale.
Vale.
Esto ya ha pasado.
Voy a estar pausando, chicos.
Lo siento.
Si no vais al directo principal, pero aquà estamos para hacer comentarios del directo.
Esto ya muchos usuarios lo están recibiendo.
Por ejemplo, Sandra lo tenÃa.
Yo en mi caso todavÃa el modelo creo que no estaba actualizado, pero acceso a una versión que ya te habla de mi conocimiento llega hasta abril de 2023, lo cual es muy interesante y por lo que acaban de decir no van a dejar ni siquiera tanto tiempo desactualizado el modelo.
Se irán parando ahora en todas estas cosas, asà que tampoco me voy a parar tanto ahora, pero es interesante.
Y continuaremos a mejorar eso en el tiempo.
Número 4.
Nuevas modalidades.
Nuevas modalidades.
¡Ojo!
Dolly 3, GPT-4 Turbo con Visión y el nuevo modelo de texto-to-speech están en la API hoy.
Vámonos.
La API.
Bien.
Todo lo que se filtró era cierto.
Dolly 3, GPT-4 y el texto-to-speech a la API.
Tenemos un montón de clientes que han empezado a usar Dolly 3 para generar imágenes y diseños.
Esto es brutal para crear un huevo de aplicaciones.
Esto va a estar guapÃsimo.
Y, por supuesto, nuestros sistemas de seguridad ayudan a los desarrolladores a proteger sus aplicaciones contra este uso.
Estas herramientas están disponibles en la API.
GPT-4 Turbo ahora puede aceptar imágenes como input via la API.
Puede generar capciones, clasificaciones y análisis.
Por ejemplo, Be My Eyes uses this technology to help people who are blind or have low vision with their daily tasks like identifying products in front of them.
And with our new text-to-speech model, you'll be able to generate incredibly natural-sounding audio from text in the API with six preset voices to choose from.
I'll play an example.
Did you know that Alexander Graham Bell, the eminent inventor, was enchanted by the world of sounds?
His ingenious mind led to the creation of the graphophone, which etched sounds onto wax, making voices whisper through time.
This is much more natural than anything else we've heard out there.
Voice can make apps more natural to interact with and more accessible.
It also unlocks a lot of use cases like language learning and voice assistance.
Speaking of new modalities, we're also releasing the next version of our open source speech recognition.
Vámonos.
Vámonos.
Vámonos.
Vámonos.
Whisper V3.
Vámonos.
Whisper V3.
Joder, con tal cosa que...
Vámonos.
Vámonos.
Vámonos.
Vámonos.
Lo que comentábamos antes también.
¿Vámonos?
Vámonos.
Vámonos.
Lo que comentábamos antes también.
Vámonos.
In a wide variety of applications with a relatively small amount of data.
But you may want a model to learn a completely new knowledge domain, or to use a lot of proprieties in the world.
Lo que comentábamos antes también.
Ahà está.
Vale, o sea, aquà he hablado de que hay fine-tuning de GPT-4,
¿está bien?
Vale, o sea, aquà he hablado de que hay fine-tuning de GPT-4,
esto es poder hacer reentrenamiento del modelo.
Eso está guay.
Y luego han sacado un programa para empresas
que dicen que inicialmente no van a poder escalar a muchas empresas,
pero que irán poco a poco como una especie de asesorÃa
donde OpenAI va a permitir que cualquier empresa
pueda hacer su modelo GPT-4 customizado
teniendo control en todas las fases del proceso de entrenamiento,
lo cual es como superior a un fine-tuning.
Es como OpenAI te construye tu propio GPT-4.
Entonces, eso está bastante interesante.
Aumento de los lÃmites de tokens que puede generar cada modelo.
Vale.
Aumento de los lÃmites de tokens que puede generar cada modelo.
Vale.
Aumento de los lÃmites de tokens que puede generar cada modelo.
Vale.
Aumento de los lÃmites de tokens que puede generar cada modelo.
solucionado para build-in en nuestra plataforma.
Por lo tanto, nosocا Heavenly Forces by the Copyright Shield.
Vale.
The Copyright Shield means
que vamos a entrar en acceder y defundar a nuestros clientes
y pagar el coste incurrido
si enfrentas a las relaciones medios sobre COVID management.
Lo corresponde tanto a la enterprise en la empresa en el chat GPT
y la API.
Ostras!
Ostras, que se ponen como el mediador del copy.
de copyright, es decir, si tú como empresa usas OpenAI en su modo enterprise, si tienes
un problema legal porque, yo que sé, te ha denunciado un periódico porque no sé qué,
no sé cuánto, OpenAI, por lo que he entendido, asumen la parte legal del asunto.
Pricing. Lo hemos hablado antes también.
Correcto.
Mejor modelo, considerablemente más barato.
Tres veces más barato. Vámonos.
Qué fuerte.
Qué fuerte.
O sea, pensad que aquÃ, esto no es como que te digan, oye, el móvil ahora cuesta
tres veces menos. Vale, ok. No, no, estamos hablando de que ahora el precio de un modelo
de inteligencia artificial State of the Art con 128.000 tokens de input ahora vale tres veces
menos. O sea, el precio de la inteligencia artificial State of the Art se acaba de abaratar por un
tercio. Ojo, ¿vale? Ojo, porque esta habilita un montón de cosas y para investigación esto es muy
guay, para productos esto es muy guay. Empresas que ya estuvieran construidas sobre la API de
GPT4, ahora de repente acaban de ver que su estructura de coste, por una parte, acaba de
abaratarse un montón. Esto es súper, súper interesante.
¿Cómo probé OpenAI, eh? Os lo he dicho, van a ser mejor el modelo y lo van a ser más barato.
Siempre lo hacen.
Y está guay porque esto va a empujar el precio del mercado hacia abajo. O sea, ninguna otra compañÃa te puede poner
el modelo más caro. Ojo.
3.5 más barato también en la API.
Also, input tokens are 3x less and output tokens are 2x less, which means that GPT3.5 16k
is now cheaper than the previous GPT3.5 4k model.
Running a fine-tuned GPT3.5 turbo 16k version is also cheaper than the old fine-tuned 4k version.
Ok, so we just covered a lot about the model itself. We hope that these changes address
your feedback. We're really excited to bring all of these improvements to everybody now.
In all of this, we're lucky to have a partner who is instrumental in making it happen.
So I'd like to bring out a special guest, Satya Nadella, the CEO of Microsoft.
Mr. Microsoft.
Satya.
Madre mÃa, vaya dos.
Good to see you.
Thank you so much.
Vaya dos.
Satya, thanks so much for coming here.
It's fantastic to be here and Sam, congrats.
I mean, I'm really looking forward to Turbo and everything else that you have coming.
It's been just fantastic partnering with you guys.
Señor de Microsoft.
Two questions, it won't take too much of your time.
How is Microsoft thinking about the partnership currently?
First, we love you guys.
Look, it's been fantastic for us.
I remember the first time I think you reached out and said, hey, do you have some Azure credits?
We've come a long way from there.
Thank you for those.
That was great.
You guys have built something magical.
I mean, quite frankly, there are two things for us when it comes to the partnership.
The first is these workloads.
And even when I was listening backstage to how you're describing what's coming even, it's just so different and new.
I've been in this infrastructure business for three decades.
No one has ever seen infrastructure like this.
Yeah.
And the workload, the pattern of the workload, these training jobs are so synchronous and so large and so data parallel.
And so the first thing that we have been doing is building in partnership with you the system all the way from thinking from power to the DC to the rack to the accelerators to the network.
And just really the shape of Azure is drastically changed and is changing rapidly in support of these models that you're building.
And so our job number one is to build the best system so that you can build the best models and then make that all available to developers.
And so the other thing is we ourselves are our developers.
So we're building products.
In fact, my own conviction of this entire generation of foundation models completely changed the first time I saw, you know, GitHub Copilot on GPT.
And so we want to build our Copilot, GitHub Copilot, all as developers on top of OpenAI APIs.
And so we're waiting for that.
What does that mean to developers?
You know, look, I always think of Microsoft as a platform company, a developer company, and a partner company.
And so we want to make, you know, for example, we want to make GitHub Copilot available as the Enterprise Edition available to all the attendees here so that they can try it out.
That's awesome.
Yeah, we're very excited about that.
And you can count on us to build the best infrastructure in Azure with your API support and bring it to all of you.
And then even things like the Azure marketplace.
So for the developers who are building products out here to get to market rapidly.
So that's sort of really our intent here.
Great.
And how do you think about the future?
Future of the partnership or future of AI or whatever.
Yeah, there.
Anything you want.
That's, you know, like, there are a couple of things for me that I think are going to be very, very key for us.
Right?
One is I just described how the systems that are needed as you aggressively push forward on your roadmap requires us to be on the top of our game and we intend fully to commit ourselves deeply to making sure you all as builders of these foundation models have not only the best systems.
So that Microsoft va a facilitar que OpenAI construya lo mejor de lo mejor.
Y luego también van a estar jugando con el open source y con llama y con meta, pero eso es otra cosa.
The second thing I think both of us care about, in fact, quite frankly, the thing that excited both sides to come together is your mission and our mission.
Our mission is to empower every person in every organization on the planet to achieve more.
And to me, ultimately, AI is only going to be useful if it truly does empower.
Right?
I mean, I saw the video you played early.
I mean, that was fantastic to see those, hear those voices describe what AI meant for them and what they were able to achieve.
So, ultimately, it's about being able to get the benefits of AI broadly disseminated to everyone.
I think it's going to be the goal for us.
And then the last thing is, of course, we're very grounded in the fact that safety matters and safety is not something that you'd care about later, but it's something we do shift left on.
And we're very, very focused on that with you all.
Great.
Well, I think we have the best partnership in tech.
I'm excited for us to build AGI together.
I'm really excited.
Have a fantastic.
Thank you very much for coming.
Thank you so much.
Thank you so much, guys.
Thanks for all the time.
Thank you so much.
Thank you very much.
Thank you so much.
Thank you so much for coming.
Thank you so much.
Thank you so much for coming.
Thank you so much.
Thank you so much.
We have shared a lot of great updates for developers already.
We got a lot more to come.
But, even though this is developer conference, we can't resist making some improvements to ChatGPT.
Ojo.
So, a small one, ChatGPT now uses GPT4 Turbo.
With all the latest improvements, including the latest knowledge cut off, and will continue.
ChatGPT ahora usa GPT-4 Turbo.
Correcto.
Vámonos, esto está muy guay.
Esto está muy guay, esto ya se iba anunciando esta semana, fijaos como la interfaz cambia.
ChatGPT-4 ahora lo dijes arriba y ahora todos los modelos están integrados en uno.
Con lo cual ahora tú puedes sacar una foto con visión y que esto lo analiza ChatGPT y que te genere una imagen Dali-3 y que te busque en internet todo al mismo tiempo.
Esto hace mucho más interesante a ChatGPT.
Eso está muy guay.
Lo que tiene que funcionar muy bien es el selector de modelos.
Yo no creo que sea un único modelo unificado,
sino que hay un rutin de lo que tú quieres y lo que haces.
Y todo se centraliza en una conversación.
Y tampoco fue el precio, en realidad, el requerimiento principal de los desarrolladores.
HabÃa uno que fue aún más grande que eso.
Y quiero hablar de dónde estamos.
Y lo principal que estamos aquà para hablar de hoy.
Asà que, creemos que si te dices a las personas mejores herramientas,
ellos harán cosas increÃbles.
Sabemos que las personas quieren AI que es más inteligente, más personal, más customizable.
Ahà está.
Y pueden hacer más en tu lado.
Los configuradores de ChatGPT.
Se viene, esto va a ser una locura.
Agentes.
Pequeño pasito, correcto.
Las versiones, lo que os decÃa, los GPT.
Se viene, bueno, ahora os explico todo esto.
Esto es por lo que OpenAI querÃa hacer un evento hoy.
Es un nuevo juguete.
Es un nuevo juguete.
Después de eso, para los developers, vamos a enseñar cómo hacer estos experimentos en tus apps.
Asà que, primero, vamos a ver a algunos ejemplos.
Los partners en Code.org están trabajando para expandir la educación en las escuelas.
Tenemos un currÃculum que es utilizado por miles de millones de estudiantes.
Code.org crafted Lesson Planner GPT
para ayudarles a la mejor experiencia para middle schoolers.
Si un profesor quiere explicar los forloops en un modo creativo,
lo hace solo eso.
En este caso, lo hará en términos de un personaje de video,
repetidamente recogiendo coines.
Es muy fácil de entender para un 8º grader.
Como pueden ver, este GPT trae el currÃculum de Code.org y la experiencia extensiva
y permite a los profesores adaptarse a sus necesidades rápidamente y fácilmente.
Next.
Canva has built a GPT
that lets you start designing by describing what you want in natural language.
Lo que estamos viendo es la evolución de los plugins
a aplicaciones, a GPTs.
Y eso viene ahà entrando ahora sÃ, fuertemente, a crear un marketplace
del futuro del año.
Lo que acabo de decir.
You can keep chatting with this to see different iterations.
And when you see one you like, you can click through to Canva
for the full design experience.
So now, we'd like to show you a GPT live.
Zapier has built a GPT that lets you perform actions
across 6,000 applications to unlock all kinds of integration possibilities.
I'd like to introduce Jessica, one of our solutions architects
who is going to drive this demo.
Vamos, una demo.
Vamos con una demo live.
Me gusta, a mà veo a Samalman un poco más humano, menos robótico.
Lo veo entretenido con sus juguetes.
Thank you all for being here.
My name is Jessica Shea.
I work with partners and customers to bring their product to live.
And today, I can't wait to show you how hard we've been working on this.
So let's get started.
So to start, where your GPT will live is on this upper left corner.
I'm going to start with clicking on the Zapier.
Vamos a analizar un poquito lo que hay.
Tenemos como un menú lateral donde vamos a tener los diferentes GPTs,
el Marketplace, ¿vale?
Estos serÃan como las diferentes aplicaciones.
Click aquà y al mismo tiempo tienen al lado, pues nos están mostrando
como la ventanita del mail, ¿no?
Porque seguramente van a jugar con estas dos cosas.
Y en la derecha, que es mi calendario para hoy.
So, es un dÃa.
I've already used this before,
so it's actually already connected to my calendar.
To start, I can ask,
what's on my schedule for today?
We build GPTs with security in mind.
So before it performs any action or shared data,
it will ask for your permission.
So right here, I'm going to say allowed.
So GPT is designed to take in your instructions,
make the decision on which capability to call to perform that action,
and then execute that for you.
So you can see right here,
it's already connected to my calendar.
It pulls into my information,
and then I've also prompted it to identify conflicts on my calendar.
So you can see right here,
it actually was able to identify that.
So it looks like I have something coming up.
So what if I want to let Sam know that I have to leave early?
So right here I say let Sam know I got to go chasing GPUs.
So with that, I'm going to swap to my conversation with Sam.
Vale.
And then I'm going to say yes, please run that.
Sam, did you get that?
I did.
Awesome.
Ahà está, bien, bien.
Vale, o sea, lo que es un...
Este es un ejemplo de el chat GPT creado con la configuración de Zapier,
que Zapier tiene acceso a un montón de aplicaciones.
Entonces tú puedes decirle quiero que me mandes un mensaje a Sam,
quiero que me agregues esto al calendario.
Y te lo hace.
Estamos viendo pasos de lo que serÃan los asistentes próximamente.
This is only a glimpse of what is possible,
and I cannot wait to see what you all will build.
Thank you and back to you, Sam.
Gracias.
Gracias, Jessica.
Estos son tres grandes ejemplos.
En addition a estos, hay muchos tipos de GPTs que están creando.
Y es, si yo por ejemplo creo un GPT y lo pongo disponible al público y la gente lo empieza a utilizar,
¿Puedo yo recibir cierta monetización de los ingresos que OpenAI genera por el uso?
Eso serÃa interesante.
Es una parte interesante que vuelve a un marketplace, un lugar, un ecosistema donde hay creadores,
donde hay usuarios, donde hay plataformas.
Y muchas, muchas más que se crean pronto.
Sabemos que muchas personas que quieren construir el GPT no saben cómo codar.
Lo hemos hecho para que puedan programar el GPT solo por tener una conversación.
Ahà está.
Nos creemos que el lenguaje natural va a ser una gran parte de cómo la gente usa los computadores en el futuro,
y creemos que este es un ejemplo interesante.
Asà que me gustarÃa mostrarles cómo construirlo.
Vale.
Esto lo que nos va a enseñar es cómo construir uno de estos GPTs,
que es similar a lo que pasaba con los plugins,
que era haciendo una descripción con lenguaje natural.
Vale.
Este será el GPT Builder.
He trabajado con los fundadores durante años en YC,
y todavÃa, cuando encuentro a los desarrolladores,
las preguntas que me encuentro son sobre cómo pensar en una idea de negocios,
¿puedo darte algún consejo?
Voy a ver si puedo construir un GPT para ayudar con eso.
Asà que, para empezar, el GPT Builder me pregunta lo que quiero hacer.
Y voy a decir que quiero ayudar a los fundadores de startup
a pensar en sus ideas de negocios
y recibir consejos.
Vale.
Quiero crear un GPT para que sirva para que los fundadores de startups
puedan pensar en sus ideas de negocios y recibir consejos.
Espero que los fundadores reciban consejos.
Espero que los fundadores reciban el consejo.
HostÃgales, como, ¿por qué no están creciendo más rápido?
Qué guapo.
¿Vale?
Te recomiendo un nombre de aplicación, Startup Mentor.
¿Vale?
Te recomiendo un nombre de aplicación, Startup Mentor.
¿Vale?
Te recomiendo un nombre de aplicación, Startup Mentor.
Y puedes ver aquÃ, en la derecha, en el preview modo,
que ya está empezando a llorar el GPT.
Donde dice lo que hace.
Tiene algunas cosas de la derecha.
La aplicación va a ir cobrando forma, ¿no?
¿Vale?
Dalà 3 te hace el logo.
¡Pum!
Te lo coloca.
Qué guapo, claro.
Aquà empezamos a ver todas las piezas juntarse.
Ahora sÃ.
Ahora, lo que quiero hacer es cómo interactuar con los usuarios.
Puedo hablar de estilo aquÃ.
Pero lo que voy a decir es que voy a publicar transcriptos
de algunas lecturas sobre Startups que he dado.
Por favor, dame consejos basados en esos.
Vale.
¡Ojo!
Que va a meter documentos.
Esto no lo habÃamos visto en ChatGPT.
Ahora, va a ir a descubrir cómo hacerlo.
Y te gustarÃa mostrarles el tab de configuración.
Asà que puedes ver algunas de las cosas que se construyó aquÃ
mientras estéramos, por el builder mismo.
Y puedes ver las habilidades que se habÃa filtrado aquÃ.
Puedo agregar acciones customes.
Estos son bien para dejar.
Voy a publicar un archivo.
Asà que aquà es una lectura.
Aquà va a subir un archivo que va a servir también como fuente de conocimiento
para que el sistema pueda sacar información al usuario.
Lo que os comentaba.
A lo mejor tú tienes un PDF con respuestas predefinidas
o con los scripts de las charlas que Samalman ha dado sobre Startups.
Y esta información la podemos integrar para que nuestra herramienta pueda sacarlo.
Esto es lo que mucha gente que haya trabajado con LLMS conoce.
Que se llama RAG.
Que es Retrieval Augmented Generation.
Generación aumentada por recuperar información.
Que esto se basa en embeddings y en toda esta historia.
Y es súper potente.
Y ahora OpenAI acaba de decir, pues mira, te lo integro todo dentro de ChatGPT
y puedes construir aplicaciones basadas en esto.
Potenciado por los 128.000 tokens de ventana de contexto.
Brutal, o sea brutal.
Es increÃble como construye esta gente.
Y es muy constructivo con la feedback.
Bien, si tuvimos más tiempo, te voy a mostrar un montón de otras cosas.
Pero esto es un buen principio.
Y ahora podemos intentar hacerlo.
Por el tab de Preview.
Entonces, diré.
¿Cuál es la pregunta?
¿Cuáles son tres cosas que buscan para
¡Qué guapo!
¡Listo!
SÃ, voy a decir lo contrario.
Claro, podéis crear vuestros propios asistentes, vosotros.
Esto es súper, súper interesante.
Claro, con todo esto, pensemos, ¿qué sentido tiene ahora todo el tema de...
O sea, va en relación al vÃdeo que publicé ayer, todo el tema del prompt engineer,
de cómo crearte tus prompts súper definidos y tal,
si ahora todo se acaba de mover a nivel de, ya no hace falta que sepas construir un prompt,
no tiene tanto sentido.
Aquà lo interesante ahora, pues es aprender a construir tus propias aplicaciones,
de crear tus herramientas para tener tu catálogo de asistentes para lo que tú quieras,
para tener tus propios GPTs.
Lo otro no tenÃa sentido, lo otro era algo temporal,
y como decÃamos en el vÃdeo que publicó ayer, pues, ojo, que es el fin de los prompt engineers.
Ahora es la época de los GPTs engineers.
Bienvenidos, chicos. Curso próximamente.
Ahà viene lo que os comentaba.
Bueno, seguramente monetización.
Ernesto, sÃ, es mejor.
Merece la pena.
Pagar GPT4.
Vale, si tenéis el Enterprise, parece ser que podréis publicar,
y aquà está un marketplace de GPTs.
Qué guapo, tÃo.
Están adelantando a todo el mundo tan fuerte por la derecha, o sea...
Ahà está, lo comentábamos.
Aquà Apple deberÃa estar asustándose de repente, y Google también.
Over the weekend, we're confident there's going to be a lot of great stuff.
We're excited to share more information soon.
So those are GPTs, and we can't wait to see what you'll build.
But this is a developer conference, and the coolest thing about this
is that we're bringing the same concept to the API.
Many of you have already been building agent-like experiences on the API.
For example, Shopify's Sidekick, which lets you take actions on the platform.
Discord's Clyde, lets Discord moderators create custom personalities for.
And Snap's MyAI, a customized chatbot that can be added to group chats
and make recommendations.
These experiences are great, but they have been hard to build.
Sometimes taking months, teams of dozens of engineers.
There's a lot to handle to make this custom-assisting experience.
So today we're making that a lot easier, with our new Assistant's API.
Appide Asistentes.
The Assistant's API includes persistent threads, so they don't have to figure out
how to deal with long conversation history, built in retrieval, code interpreter,
a working Python interpreter in a sandbox environment.
¡Qué guapo!
And of course, the improved function calling that we talked about earlier.
¡Qué guapo!
So we'd like to show you a demo of how this works, and here is Roman, our head of developer experience.
¡Qué guapo!
¡Han montado muchas cosas!
¡Gracias, Sam!
¡Están construyendo a la velocidad de la luz!
Wow, it's fantastic to see you all here.
It's been so inspiring to see so many of you infusing AI into your apps.
Today, we're launching new modalities in the API, but we are also very excited to improve the developer experience for you all to build assistive agents.
So let's dive right in.
Imagine I'm building Wanderlust, a travel app for global explorers, and this is the landing page.
I've actually used GPT-4 to come up with these destination ideas, and for those of you with a keen eye, these illustrations are generated programmatically using the new Dolly 3 API available to all of you today.
So it's pretty remarkable.
But let's enhance this app by adding a very simple assistant to it.
This is the screen.
We're going to come back to it in a second.
First, I'm going to switch over to the new assistant's playground.
Creating an assistant is easy.
You just give it a name, some initial instructions, a model.
In this case, I'll pick GPT-4 Turbo.
Todo lo que se habÃa filtrado era esto.
Todas estas interfaces y tal.
O sea que, muy bien OpenAI en todo, pero ojo con las filtraciones porque se les ha ido todo por internet.
Next, I can integrate with two new primitives of this assistant's API, threads and messages.
Let's take a quick look at the code.
The process here is very simple.
For each new user, I will create a new thread.
And as these users engage with their assistant, I will add their messages to these threads.
Very simple.
And then I can simply run the assistant at any time to stream the responses back to the app.
So we can return to the app and try that in action.
If I say, hey, let's go to Paris.
All right, that's it.
With just a few lines of code, users can now have a very specialized assistant right inside the app.
And I'd like to highlight one of my favorite features here, function calling.
If you have not used it yet, function calling is really powerful.
And as Sam mentioned, we're taking it a step further today.
It now guarantees the JSON output with no added latency.
And you can invoke multiple functions at once for the first time.
Vale, una cosa, lo que han comentado, ¿no?
Por una parte está la funcionalidad de threads, de hilos, que es para tener a cada usuario por su flujo de ejecución, ¿ok?
Y luego una mejora en el function calling, que era el sistema que tenÃas para intentar estructurar un poco la respuesta de lo que te daba ChatGPT,
que ahora le han incorporado un verificador de JSON.
Es decir, yo creo que ahora lo van a enseñar.
Esto es, pues, que tú planteas la estructura del JSON que quieres que sea la estructura final del output
para poder tener una mejor interoperatibilidad entre funciones.
Y ese JSON, si no se respeta, pues se verificará, ¿no?
Es como que te dirá, oye, aquà ha fallado, volvemos a generar respuesta.
O, sÃ, está perfecto, para adelante.
Y dicen que esto ocurre sin ninguna latencia añadida, lo cual está bastante bien.
Es decir, no va a ser más lento, ¿no?
Para hacer esta comprobación en el JSON.
AquÃ, si continúe y decir, hey, ¿qué son las 10 cosas que hay que hacer?
Voy a tener que responder a eso de nuevo.
Y aquÃ, lo interesante es que el asistente sabe sobre las funciones,
incluyendo esas que anotar la mapa que ves a la derecha.
Y ahora, todas estas PINs se caerán en real tiempo aquÃ.
Es que Internet...
Pensamos que la web iba a ser 3.0 con el blockchain,
y va a ser la web con inteligencia artificial, colegas.
Muchas gracias, DAC.
Es una batalla, regulación y avances.
Pero se irá controlando todo.
Llegará un equilibrio.
OpenAI está haciendo bastante lobby también, ojo.
Nuestro asistente, más conocimiento de los usuarios de los usuarios de los usuarios.
En realidad, me inspiré y ya he listado mis tickets para ParÃs.
Asà que voy a descargar y descargar este PDF.
Lo que está grabando, puedo hacer un pincel.
Es un ticket muy tÃpico de United Flight.
Y detrás de la escena, lo que está pasando es que Retrieval está leyendo estos datos.
¡Qué guapo!
Vale, fijaos que en este caso lo que ha hecho ha sido...
O sea, pensaba que iba a ser como la API de visión, pero no.
Ha llamado la API de Retrieval.
Entonces le ha pasado como el documento.
Y a partir de ahÃ, de alguna forma ha extraÃdo,
ha sabido extraer exactamente los atributos para completar a lo mejor el JSON.
No lo sé, no sé exactamente cómo funciona por debajo.
Pero bueno, sà lo ha dicho, ¿no?
Que ha usado la API de Retrieval.
¡Qué guapo!
...text, to intricate product specs, depending on what you're building.
In fact, I also booked an Airbnb, so I'm just gonna drag that over to the conversation as well.
And by the way, we've heard from so many of you developers
how hard that is to build yourself.
You typically need to compute your embeddings.
You need to set up chunking algorithm.
Now all of that is taken care of.
And there's more than Retrieval.
With every API call, you usually need to resend the entire conversation history,
which means, you know, setting up a key value store.
That means, like, handling the context window, serializing messages, and so forth.
That complexity now completely goes away with this new stateful API.
But just because OpenAI is managing this API, does not mean it's a black box.
In fact, you can see the steps that the tools are taking right inside your developer dashboard.
So here, if I go ahead and click on threads,
this is the thread I believe we're currently working on.
And see, like, these are all the steps, including the functions being called with the right parameters
and the PDFs I've just uploaded.
O sea, fijaos que tal cual lo han configurado, tú puedes acceder al menú threads,
donde vas a ver todos los hilos de los diferentes usuarios
y vas a poder ver el flujo de interacción que han tenido.
Pues si quieres depurar, ver qué mensajes han mandado, qué archivos, el JSON que devuelve.
Es decir, súper bien estructurado y muy limpia la interfaz.
O sea, tÃo, es que están construyendo toda la infraestructura de golpe.
¿Están creando los modelos más avanzados, la infraestructura para poder crear herramientas
para que los usuarios puedan crear aplicaciones?
Joder.
Ahora entiendo todas las contrataciones que hicieron a principios de año donde se han ido a todo esto.
Muchas gracias, Albert, y muchas gracias, Danilo, por las donaciones.
Veo que os está gustando el directo. Me gusta, me gusta.
Joder, like, si no queréis dejar donaciones a los chicos, al menos.
Muchas gracias, VÃctor.
Los años de welcome vinientos reflejados en OpenAI totalmente.
SÃ, sÃ, se ve.
¿Cuál es mi parte de eso más mis flujos?
Bien.
Ahora aquÃ, lo que está pasando es que el interpretador notó que deberÃa escribir algún código para responder este criterio.
Asà que ahora está comprando el número de dÃas en ParÃs, el número de amigos.
En este caso, lo que acaban de ejecutar ha sido el usuario ha hecho una pregunta y para tener una respuesta sólida,
porque ya sabemos que las matemáticas a los LLMs por defecto se la atraganta,
ha ejecutado el Code Interpreter que ha generado el código de programación para poder responder matemáticamente a esa pregunta.
Cómo mola.
Hice una pregunta, Junior. No la vi, perdona. Fuiste a la primera donación.
Te está gustando esto, eh. Yo sé que esto te está gustando, Junior.
Las cosas te molan.
Las cosas te molan.
Manages states for your user conversations, leverages external tools like KnowLegend Retrieval
and Code Interpreter, and finally invokes your own functions to make things happen.
There's one more thing I wanted to show you to kind of really open up the possibilities using function calling
combined with our new modalities that we're launching today.
Ojo, ha creado un asistente, ha creado su propio asistente del evento, ¿vale?
Y en este caso es un asistente que no va por texto, sino que va por voz.
Porque claro, pensemos que todo esto va a seguir evolucionando y la multimodalidad está ahÃ,
el uso de la voz está ahÃ, podéis crear cosas que trasciendan un poco los estándares de aplicaciones
que estamos acostumbrados, que estamos muy acostumbrados a que los chatbots tienen que ser en cajitas de texto,
pero a lo mejor el gato se lo lleva al agua al que cree una cosa nueva, una nueva forma,
una nueva interfaz de usuario más amigable.
Podéis crear vuestro Jarvis o vuestra Alexa 2.0.
Muchas gracias, Patricio. Comienza una nueva era del desarrollo, totalmente.
Hey, everyone. Welcome to Dev Day. It's awesome to have you all here. Let's make it an incredible day.
Qué guay.
Qué rabia me da que las voces suenen también en inglés. En español suena como un inglés hablando en español.
¿No es tan impresionante?
Hay seis voces únicas y rÃgidas que elegir en el API, cada hablando de múltiples lenguajes,
para que puedas encontrar el perfecto para tu app.
Y en mi laptop, aquà a la izquierda, puedes ver los logs de lo que está pasando detrás de las escenas.
Asà que estoy usando Whisper para convertir los inputos de voz en textos,
un asistente con GPT-4 Turbo, y finalmente el nuevo TTS API para hacerla hablar.
Pero gracias a la llamada funcionalidad, cosas son más interesantes cuando el asistente puede conectar a la Internet
y tomar reales acciones para los usuarios.
Asà que hagamos algo más emocionante aquÃ, juntos.
Gracias, CD-ROM. Muchas gracias.
Coño, coño, que van a regalar cinco...
Mira, fijaos, el asistente está llamando como a diferentes funciones porque le ha pedido que seleccione a cinco participantes
para regalarle a cada uno 500 dólares de crédito de OpenAI, de forma aleatoria, ¿no?
Y ahà salen.
Cristina, Jonathan, Steven, Luis, y Silas.
Chavales, bienvenidos a la era de las aplicaciones inteligentes.
Ahora sÃ.
All right, if you recognize yourself, awesome, congrats.
Hace un año esto era...
Inimaginable.
Inimaginable.
A todo el mundo, ¿no?
Vale, vale, vale. A todo el mundo, ¿no?
Hey, assistant, can you actually give everyone here in the audience $500 in OpenAI credits?
Qué cabrones, ¿eh?
Sounds great.
Let me go through everything.
Sounds great.
Toma, toma, toma.
Ojo, ojo, ojo, ojo. El dinero cayendo, clink, clink, clink, clink, clink.
Que OpenAI se arruina, dicen.
So thank you so much, everyone. Have a great day.
Back to you, Sam.
Qué bueno, ¿eh?
Oye, muy espectacular.
A todo el mundo, ¿no?
A todo el mundo, ¿no?
A todo el mundo, ¿no?
Hey, assistant, can you actually give everyone here in the audience $500 in OpenAI credits?
Qué cabrones, ¿eh?
Sounds great.
Let me go through everything.
Sounds great.
Toma, toma, toma.
Ojo, ojo, ojo. El dinero cayendo, clink, clink, clink, clink, clink.
Que OpenAI se arruina, dicen.
So thank you so much, everyone. Have a great day.
Back to you, Sam.
Qué bueno, ¿eh?
Oye, muy espectacular el show y tal.
Esa pobre gente tratándole ahà los $500.
Coño, coño, coño.
Comprando al público. Qué feo, Sam, ¿eh?
TÃo Sam.
Los cinco primeros tienen mil, correcto.
Oye, eventazo, ¿no? De OpenAI.
IncreÃble evento, chavales.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
TÃo Sam.
L
TÃo Sam.
TÃo Sam.
OpenAI tiene una gran cantidad de talento, pero aún asÃ,
necesita un gran esfuerzo de trabajo y co-ordinación para hacer todo esto.
Creo que tengo los mejores colegas del mundo.
Estoy muy agradecido por que trabajen con ellos.
Hemos hecho todo esto porque creemos que la AI va a ser una revolución tecnológica y sociétal.
¡Muchas!
¡Muchas!
¡Muchas!
¡Muchas!
¡Muchas!
HabÃamos hablado antes de que si le dices herramientas mejores herramientas, pueden cambiar el mundo.
Creemos que la AI va a ser una escala que nunca hemos visto antes.
Y eso elevará a la humanidad a una escala que nunca hemos visto antes.
PodrÃamos hacer más, crear más y tener más.
Como la inteligencia se integrará en todo lugar, todos tendremos superpáueros en demanda.
Estamos emocionados de ver lo que todos harán con esta tecnologÃa
y descubrir el nuevo futuro que todos vamos a arquitectar juntos.
Esperamos que vuelvas a volver el año pasado.
Lo que lanzamos hoy va a parecer muy malo respecto a lo que estamos haciendo para ustedes ahora.
Gracias por todo lo que haces.
Gracias por venir aquà hoy.
Vale, vale, vale.
¡Uf!
Vale, vale, Sam.
Menos mal, porque ya a lo mejor todavÃa...
Bueno, bueno, bueno, bueno, bueno, bueno, bueno, bueno, por favor.
Ahora sale corriendo.
¡Paparse!
Ya está, ¿no?
Está todo el pescado vendido.
Bueno, bueno, bueno, bueno, bueno, bueno, bueno.
OpenAI.
Madre mÃa, OpenAI.
Madre mÃa.
Vamos a dejarlo aquÃ.
De tal.
Vamos a ponerlo full cam y vamos a comentar qué ha pasado aquÃ.
Qué ha pasado aquÃ.
¡Uf!
A ver.
¿Cómo explicar?
Vamos.
Vamos a escribirnos un prompt para poder explicar lo que acabamos de ver.
Carlos, explica de forma sencilla y paso a paso por qué es tan relevante.
Muchas gracias, por cierto, por la donación, Olga.
20 euros.
Muchas gracias.
Esto también ayuda al prompt.
Vamos a intentar explicar qué ha hecho OpenAI aquÃ.
A ver.
A OpenAI se le ha criticado muchas cosas de cómo han ido poco a poco cerrando su vertiente abierta, ¿no?
El Open de OpenAI.
Lo que busca es, pues, crear inteligencia artificial, AGI en concreto, abierta a todo el mundo y bla, bla, bla.
Todo esto se ha perdido por el camino porque han cerrado la puerta, se han vuelto muy, ya no son un laboratorio de investigación como tal, sino que ya con la salida de ChatGPT se clava el último clavo en el ataúd del aperturismo de OpenAI.
De hecho, podemos celebrar que el último modelo en abierto que regalaron, y parece que fue como el último regalo, el último estertor antes de morir, fue Whisper, ¿vale?
Whisper fue el último modelo que dejaron ahà y ya está.
A partir de ese momento, OpenAI se convierte en una empresa de aplicaciones. ChatGPT, DalÃ, también tenemos Whisper como parte de la API. Todo esto está ahÃ.
Y lo que ha pasado es que sobre eso, desde la salida de ChatGPT y todo el terremoto que genera y todo el impacto que tiene atrayendo mucho público que se entera de que esta empresa existe directamente, empieza la revolución de la IA generativa y todo lo que hemos vivido durante 2023.
Entonces, OpenAI, al final, durante todo este año, se ha convertido en una empresa de IA as a service. Y ahora, en este evento, lo que ha generado es toda la infraestructura necesaria para colocarse como la plataforma de inteligencia artificial, porque lo que ha hecho ha sido construir un marketplace.
Ha creado el concepto de, ya no hablamos de ChatGPT, ahora vamos a hablar de GPTs. Y GPTs son asistentes, son versiones del GPT que tú vas a poder configurar.
Ellos ya no se van a encargar de hacerte los modelos para ti, sino que tú, como plataforma, vas a poder conectarte a OpenAI y ellos te van a dar toda la infraestructura para poder crear tu propia versión de GPTs.
Y lo han hecho muy bien porque han creado un montón de herramientas súper interesantes. Creo que queda algo más, pero que iremos viendo a lo largo de la semana en los eventos de GitHub y todo esto.
Seguramente puede haber alguna integración interesante ahÃ, pero están cambiando completamente, desde mi punto de vista, el modelo de programación.
Porque ahora mismo ya no tiene sentido plantearse una arquitectura de software con los patrones tradicionales, ya no tiene sentido construir una aplicación a la antigua.
O sea, para muchos casos todavÃa será necesario, obviamente. Pero se está abriendo una vertiente inexplorada donde OpenAI nos está dando las herramientas para que seamos nosotros los que creemos estas aplicaciones hÃbridas.
O sea, donde parte del modelo de negocio va a estar ahÃ. Nosotros vamos a tener que decidir qué queremos que haga, cómo va a interactuar con un usuario, qué valor vamos a ofrecer.
Pero todo esto va a estar potenciado por estos modelos de visión, creación de imágenes, creación de texto, creación de código que se puede ejecutar, creación de voz, interfaces como Whisper que te pueden entender,
generación de voz para poder dar el output como asistente tal.
Todo esto nos lo están facilitando ahora con lo que han presentado hoy. Y esto es potentÃsimo. Esto es potentÃsimo porque es el mismo concepto con la llegada de las aplicaciones móviles.
Cuando Apple saca el Marketplace, el iPhone y todo esto, lo que nos están dando es una plataforma que ha creado toda la revolución de Internet que hemos vivido en los últimos 15 años.
Todas las redes sociales, todas las aplicaciones móviles que hemos visto, todas las empresas que se han construido a través de esta revolución y ahora OpenAI se quiere convertir en eso.
Al mismo tiempo que todo esto abre un montón de oportunidades, OpenAI hoy se ha cargado unas cuantas empresas también dedicadas que ya estaban creando su modelo de negocio sobre dar algo por encima de la API de OpenAI.
Hay muchas empresas, por ejemplo, empresas de Pinecon como bases de datos vectoriales, empresas como... no me vienen nombres, pero empresas de diferentes tipos.
A lo mejor de leer PDFs, de poder meter un documento y sacar información.
Todas esas empresas, seguramente algunas pervivan porque cubren un nicho concreto y pueden dar una experiencia de usuario muy concreta.
Pero ahora mucha gente va a entrar a competir creando sus propios GPTs dando una propuesta de valor similar.
Entonces, muchas de estas empresas que habÃan confiado en la infraestructura de OpenAI en esta plataforma, de repente el barco ha pegado un viraje porque todavÃa las placas tectónicas se están moviendo y se está creando una industria ante nuestros ojos y todavÃa no tiene una forma definitiva.
Porque lo que hemos visto hoy, por ejemplo, ha sido una corrección de OpenAI sobre algo que ya nos habÃan presentado, que era todo el tema de los plugins.
Los plugins era un poco este concepto y se habló ya de que OpenAI estaba creando su marketplace, pero al final los plugins todavÃa no terminaban de funcionar porque el Function Calling no funcionaba.
A lo mejor la especificación de los plugins no te daba todo el control necesario porque a lo mejor darle al usuario la posibilidad de seleccionar qué plugins utilizar era demasiado engorroso.
Pues todo esto ha evolucionado a lo que hemos visto hoy, todo el tema de los asistentes.
Y es verdaderamente un bombazo. Para que esto funcione, OpenAI tenÃa que hacer varias cosas.
Porque es decir, yo te doy a ti la posibilidad, me invento una empresa, Squats, ¿no, Junior, que estás por aqu�
Pues a lo mejor si tú quieres crear una aplicación sobre tu empresa, en este caso tú tienes que, si vas a tener a muchos usuarios creando estos hilos,
todos estos threads tirando directamente de tu uso de la API, porque al final tú estás pagando con la API Key, claro, todo esto lo tienes que pagar.
Entonces, ¿qué necesitamos? Precios más baratos, precios más baratos.
Y OpenAI nos ha presentado un modelo más potente con precios reducidos, con 2,75 reducción del precio, porque creo que era 3 en el input y 2 de completación.
Eso por una parte, más ventana de contexto, más velocidad que va a llegar, más precisión.
Esto no lo sabemos, esto es interesante. A ver si sacan algún paper o algún preprint o una technological preview,
o la gente tiene evaluaciones suficientes para poder comparar modelos, pero es interesante ver si realmente el GPT-4 Turbo
no tiene una pérdida de calidad frente a GPT-4, porque recordemos que al final lo que han hecho aquà es reducir el modelo de alguna forma
para que sea más rápido, para que sea más óptimo, para que sea más barato. Lo han optimizado y seguramente ha habido un proceso de distilación,
de destilación, y no tengo claro yo si el rendimiento va a ser el mismo. Entiendo que sÃ, no para todos los casos de uso.
Seguramente veremos a mucha gente quejándose diciendo, es que antes me calculaba raÃces cuadradas y ahora no me las calcula.
Puede ser, pero a lo mejor otros casos de uso si funcionan mejor, no lo sabemos. La gente lo evaluará y veremos en internet
un montón de comparaciones que serán interesantes, pero molarÃa que OpenAI sacara alguna técnica al preview.
Y ahora de hecho vamos a buscar a ver si han sacado algo, porque creo que podrÃa ser interesante.
What's OpenAI, research, overview, a ver si han sacado algo por aquÃ.
No, esto no es. A ver si en Twitter tenemos cosas nuevas. A ver si he acabado aquà los debates.
OpenAI, ¿qué tenemos? Vale. Vamos a ver si han sacado algo interesante.
Perdón por la chapa que os estoy dando. Muchas gracias, Junior, por el aporte que me das.
Nada, nada, nada. No han dado nada, ¿no?
No, tampoco. Esto ya es de otro dÃa. Vale, bueno, pues eso.
Han tenido que reducir precios, han tenido que aumentar la ventana de contexto.
Ojo, chavales. O sea, 128.000 tokens. Eso es una burrada.
Y eso también habrá que ver qué tan bien funciona, porque eso hasta para los usuarios
nos abre un montón de posibilidades súper, súper interesantes.
Vamos a meternos un momento en chat GPT-1. A ver si tenemos...
Bueno, para empezar a ver si funciona la web, porque no me extrañarÃa que estuviera bastante saturada.
A ver un momentito. Bueno, de esto, de lo que hemos visto antes,
FineTuning de GPT-4 lo han comentado. Bajadas de precios. TenÃa razón.
Esto era la probabilidad alta que di. Multimodalidad en GPT-4 lo tenÃamos.
Update de Whisper. Ojo, no me equivocaba.
Han hablado de un Whisper V3. De esto quiero saber más.
Seguramente sea un modelo con una misma precisión o incluso mejorada y mucho, mucho más rápido.
Porque Whisper, que fue un modelo que sacaron open source de texto a... O sea, de habla a texto.
Cuando lo sacaron open source, la gente, la comunidad consiguió unas optimizaciones brutales
y seguramente el Whisper V3 que ellos presenten sea igual de rápido y de potente.
¿Algún modelo nuevo por la API? Pues tenemos el de visión, tenemos el de texto, tenemos el de habla.
Vale. Y esto no ha ocurrido. TenÃa mi esperanza, pero no ha ocurrido.
Vale. Dejadme ver un momentito. Voy a borrar aquà esto también.
A ver. Abrir herramientas de desarrollo de plugins. No.
Vale. No estoy viendo nada nuevo.
A ver. Que no me quiero borrar la cuenta sin querer.
A ver. No estoy encontrando el botón de aquÃ. Borrar los chats. Vale.
Vale. Fijaos. Yo creo que mi GPT-4 todavÃa no está actualizado.
Por ejemplo. Lo que ya os han mostrado, que me parece súper interesante, es el modelo unificado.
Yo todavÃa sigo teniendo los cinco modelos diferentes.
Si yo, por ejemplo, le digo. ¿Hasta dónde llega tu conocimiento?
Pues aquà vemos que...
Ah, mira. El mÃo se está actualizado a abril de 2023. En este caso sÃ.
Yo entiendo que si aquà hablan de abril de 2023, este modelo ya usa el GPT-4 Turbo, ¿vale?
Yo creo que esto sà lo están utilizando.
Y lo que me faltarÃa serÃa que me activaran la unificación de los modelos.
Porque eso va a ser súper interesante.
Además que te posibilita el poder ya meterle documentos, PDFs y todo, directamente en esta conversación.
Porque eso hasta ahora solamente estaba en el Data Analysis, ¿no? En esto que tenemos por aquÃ.
Súper, súper interesante el evento, chicos. Quiero saber vuestras opiniones.
Quiero que penséis conmigo. O sea, ¿esto en qué va a derivar?
Pero mi sensación es que, lo que os decÃa ayer, ¿no? En el vÃdeo que subimos y que vais a ir todos corriendo a ver una vez termine el evento.
A ver, un momentito.
El vÃdeo de ayer, que es este de aquÃ, es el fin de los Prompt Engineers.
Este vÃdeo creo que tiene más sentido ahora que nunca, ¿vale?
Porque el modelo ha cambiado. Ya no va la cosa de solo hablar con ChatGPT.
Es decir, los truquitos, obviamente, si vas a hablar con el modelo, pues sÃ, vamos a pensar paso a paso.
Que eso saca más rendimiento. Eso está guay.
Pero la cosa va a cambiar en cuestión de tiempo.
Esto es interesante porque lo que hemos visto hoy no es como una salida de ChatGPT que de repente va a ser una oleada que todo el mundo puede utilizar y va a ser un bombazo, sino que va a ser más paulatino.
Aun cuando creo que tiene mayores implicaciones, va a ser más paulatino porque falta la capa intermedia que vosotros, developers, construyáis sobre lo que acaban de sacar.
Además de que ellos vayan haciendo el despliegue poco a poco.
Entonces, irá llegando poco a poco, pero iremos viendo como cada vez más páginas web, cada vez más servicios online, cada vez más en el marketplace que OpenAI habilite,
vamos a ir viendo cada vez funcionalidades más interesantes y combinaciones más interesantes de los ChatGPT.
¿Por qué? Porque lo que pasa con el ChatGPT, por ejemplo, que nos van a activar a todos ahora el múltiple, este, el que tiene todos los modelos unificados,
es que genera ya tantas combinaciones de, pues por ejemplo, yo estaba pensando, lo tengo apuntado aquÃ, asà que vamos a verlo,
estaba pensando, si sacan esto de los agentes, ¿qué podrÃan ser agentes que se puedan crear? Ideas.
Pues pensemos, tenemos visión, tenemos meterle documentos, tenemos el Code Analytics, tenemos generación de voz.
Pues por ejemplo, un asistente de atención al cliente, que esto lo hemos visto un poco en la presentación.
Puedes configurar un ChatGPT para que conozca tu marca, tu cultura organizativa, tus protocolos a la hora de dialogar con un cliente.
Al mismo tiempo, para cada respuesta a ChatGPT le puedes pedir, esto se me ha ocurrido antes en el avión,
le puedes pedir que razone del 1 al 10, para cada respuesta del cliente, cómo cree ChatGPT que el cliente se está sintiendo según las respuestas.
Entonces, a lo mejor tú estás teniendo la conversación y, hola, bienvenido a DOCSV, ¿qué te interesa?
Ah, pues quiero saber el último vÃdeo que ha subido Carlos. Vale, estos vÃdeos te interesan.
¡Wow! Son súper interesantes. Entonces ahà ChatGPT le puedes decir, vale, además de continuar con la conversación,
quiero que estructures las frases que devuelva.
Y similar a lo que explico en este vÃdeo, es el fin de los Prompt Engineers,
de cómo el modelo de lenguaje optimiza los prompts con un score,
pues tener un score, una evaluación de según la frase y el sentimiento del cliente,
o incluso si es por voz, bueno, por voz costarÃa más, ¿no?
O sea, la entonación no la podrÃamos sacar.
PodrÃas tener otros modelos, ¿no? Que operen con esto.
Tener este score para que el modelo se vaya optimizando y vaya dando respuestas cada vez más satisfactorias,
o para que tú puedas tener, puedas decir, conectar con el Code Analytics y decirle,
oye, sácame de todas las conversaciones que has tenido con todos los clientes
y hazme una estimación de cuáles son las mejores conversaciones y por qué, ¿no?
Y sobre esto, pues, mejora este documento PDF, que es el que va a través del retrieval,
el que te voy a actualizar para que la siguiente versión tuya sea mejor, ¿no?
Estos son locuras que se me ocurren asà pensando un poco en alto,
pero que creo que son interesantes.
Yo qué sé.
Luego podéis crear GPTs personalizados para vosotros.
O sea, podéis tener vuestras propias herramientas de trabajo y utilizarlas.
A lo mejor tenéis uno que se llame Ticket Manager, ¿vale?
Y que sea una aplicación donde tú le mandas una foto en ChatGPT,
y con esa foto el módulo de visión saca la información, te lo convierte en JSON,
te lo mete en un PDF y te lo puedes descargar al final de mes.
O que a lo mejor se conecte a través de plugins con una aplicación de envÃo de emails y bla, bla, bla, bla.
¿Vale? Esto también lo podéis construir.
O asistente de voz.
Podéis tener una aplicación educativa donde tú cojas y digas,
oye, vamos a crear una aplicación que sea un juego,
donde yo a lo mejor estoy en un museo, saco una foto, un cuadro,
cuidado con los museos y los cuadros, sobre todo publicándolo en Twitter,
sacáis una foto con vuestro móvil y entonces, según la información que el modelo detecte,
que lo asocie con alguna personalidad relacionada.
Pues a lo mejor yo veo la noche estrellada, le saco una foto y es Van Gogh el personaje.
Pues el modelo, ese personaje no te lo va a decir,
sino que va a empezar a dialogar contigo,
va a interpretar un diálogo en una conversación de voz,
porque podrÃa ser eso,
y el juego es que tú adivines quién es ese personaje.
¿Vale? De todos los que podrÃan ser relacionados con esa escena.
Todo esto son posibilidades que ahora se empiezan a crear, que están ahÃ.
Y hay una cosa que no han comentado, pero me hubiera parecido interesante,
y es hablar de la interoperabilidad de los modelos.
Al final tú vas a tener un asistente que haga una cosa,
otro asistente que haga otra cosa y otro que haga otra cosa.
¿Qué te impide a ti encadenar este flujo y tener a lo mejor uno que haga contabilidad,
otro que reciba esto y te lo documente y te lo manda al correo,
otro que haga, ¿vale? Eso podrÃa ocurrir.
Y va a ser un paso a que OpenAI seguirá dando al futuro y que seguramente esté investigando.
Pero por ahora, lo que nos ha atraÃdo hoy es esto.
Es un marketplace, es el concepto de asistentes,
bajadas de precios, modelos más potentes, modelos más rápidos.
¡Guau! Ha sido buena bomba.
Ha sido muy buena bomba.
Creo que ha molado bastante.
Creo que OpenAI está haciendo un trabajo excelente.
Obviamente, es una empresa que me gusta mucho lo que hace.
Me encanta y ahà me podéis notar a lo mejor el sesgo,
pero siendo objetivos...
Coño, ¿dónde está Google?
O sea, Google hoy tiene una gran oportunidad
y es que puede mejorar a Bart creando un GPT personalizado directamente, ¿vale?
Que conecte la API y diga, mira, tiramos de GPT y ya está.
¿Por qué? ¿Dónde está Google?
Google, madre mÃa.
Que todavÃa no has terminado de dar el primer pasito
y ya te están dando cinco pasos más.
Que están creando un marketplace.
Que el que domine eso, dominará por mucho tiempo.
Porque un marketplace te crea un ecosistema
y crea una dependencia de tu tecnologÃa
que otra gente no va a tener.
¿Vale?
Aquà los únicos que se salvan siempre son los modelos OpenSource.
Porque los modelos OpenSource van a seguir trabajando
y van a intentar seguir copiando el modelo de negocio que hay aquÃ.
Y OpenAI se está nutriendo mucho de...
O sea, está pulsando, está aprendiendo de lo que la gente
con el OpenSource está haciendo
y obviamente mucho lo incorpora.
Pero la alternativa OpenSource va a estar ahÃ.
Porque, bueno, al final,
trabajar con estas tecnologÃas
implica muchas cosas que a muchas empresas no les gusta.
Por ejemplo, enviar tu documento,
enviar información de tus usuarios, de tus clientes
a un servidor de terceros
que a lo mejor está fuera de Europa,
que a lo mejor no cumple con lo que necesitas.
Es decir, todo eso está ahÃ
y esa alternativa te lo pueden ofrecer los modelos OpenSource.
Pero no puede...
O sea, no puede ser que se estén quedando solos.
Que OpenAI está corriendo.
Y además lo han hecho muy bien
porque si hubieran salido en el escenario ellos solos
hubiera sido como...
Bueno, a lo mejor están creando algo a lo loco ellos
pero hasta que vengan los big boys
Microsoft, Google y todos estos
y ya digan, vaya, vamos a jugar.
Pero es que ha aparecido Microsoft en el escenario.
Esto ha sido como Microsoft diciendo a OpenAI,
sÃ, te avalamos la propuesta.
Crea del Marketplace sin problema, tal.
Y nosotros seguimos dando infraestructuras
que esto viene muy bien.
Google, sacad Gemini, por favor, que necesito comer.
Sacad Gemini que lo espero con mucha ansia
a ver qué estáis haciendo.
Pero claro, ahora ya tienes que sacar a Gemini,
tienes que impactar, tienes que sorprender,
tienes que convencer
y luego, además, dar toda la infraestructura
que OpenAI nos ha dado hoy aquÃ.
Ya en vuestras retinas,
todas las posibilidades de lo que estos enormes modelos
de lenguaje pueden hacer a nivel de desarrollo
está fuertemente ligado a OpenAI.
Y ese primer golpe es muy difÃcil de mejorar, ¿vale?
Entonces, Google, por favor, si me estás escuchando,
señor Sundae Pichal, por favor, sacad algo ya.
Chicos, chicas, me agrada muchÃsimo
que este directo haya tenido tanta acogida.
Hemos sido casi 5.000 personas en concurrentes,
o sea, 4.800 creo que ha sido el pick.
Creo que ha sido súper interesante.
Mucho más está por venir.
Voy a intentar coger toda esta información,
destilarla, sintetizarla
y traeros un vÃdeo a final de semana
para explicaros todas estas cosas.
A lo mejor sÃ, a lo mejor no.
Ya veremos que hay mucho trabajo
y muchas cosas que hacer.
Estoy yendo a eventos, estoy editando charlas,
estoy haciendo un montón de cosas.
Vengo de una semana de estar fuera de viaje también,
que no os habéis enterado
porque he publicado vÃdeo,
porque he dejado las cosas súper organizadas.
Pero, chicos, chicas,
esta es la revolución de la inteligencia artificial
y, como siempre, me encanta poder estar aquÃ.
Contárosla.
Largo camino hemos recorrido
desde los comienzos de GPT-2 y GPT-3.
¿Recordáis aquellos modelos?
Pues mirad, mirad cómo todo se está haciendo realidad.
Y esto es la parte quizás más comercial,
pero es que sigue habiendo avances de deep learning.
Sigue habiendo grandes avances en ciencia, en medicina.
Sigue habiendo muchas cosas.
Y, como ha dicho Samalmant,
este es el primer paso que ellos han dado
hacia un futuro,
hacia una revolución tecnológica, económica y social
que va a ser la revolución de la inteligencia artificial.
Y que, como siempre,
os contaré aquà en .docsv.
Ahora, todos los que estáis aquÃ,
vais corriendo a ver este vÃdeo
desde el fin de los Prompt Engineers.
Os suscribÃs a .docsv,
que queremos llegar al millón de usuarios
en algún momento.
Y también al .docsvlab,
donde estoy subiendo vÃdeos
súper interesantes sobre...
Bueno, estos son los mismos vÃdeos,
pero en el .docsvlab,
vÃdeos más prácticos
donde probamos herramientas
como la herramienta de Luma,
la herramienta de Firefly
y un montón de cositas súper interesantes
que creo que os van a gustar.
Chicos, chicas,
un abrazo, un beso,
muchas gracias por pasaros
y nos vemos en el próximo directo o vÃdeo.
Chao.