This graph shows how many times the word ______ has been mentioned throughout the history of the program.
Este vídeo está patrocinado por la Universitat Politécnica de València.
Interrumpimos las vacaciones de verano para hablar del tema del momento.
GPT-3, el tema del que todo el mundo habla y yo también, pues he seguido hablando.
Es un tema que ya les introduje hace unas semanas con este vídeo de aquí.
En ese vídeo les presenté muchas aplicaciones por las cuales yo pensaba que
el campo del Natural Language Processing estaba viviendo un punto de inflexión
donde GPT-3 podría representar justamente ese punto.
Y esto solo demuestra una tendencia que es impresionante porque
nosotros nos sorprendimos hace dos meses con un modelo como GPT-3 que tiene 175.000 millones de parámetros.
Y recuerdo estar en directo en Twitch hablando con ustedes
y comentando cómo acabaríamos el año, qué tipo de modelos alcanzaríamos a finales cuando llegáramos a diciembre.
Y yo, pues, más o menos intenté lanzarme a la piscina y dije que llegaríamos a tener modelos de 300.000 millones de parámetros
posiblemente vista la tendencia ascendente que estamos viendo hasta ahora.
Y en este caso, como suele ocurrir en el campo del deep learning, la realidad suele ser más sorprendente incluso que lo que nosotros podemos imaginar.
Puesto que a las poquitas semanas Google publicó un modelo que llegaba a los 600.000 millones de parámetros.
Esta es la tendencia que estamos viendo.
Modelos cada vez más grandes, solamente entrenables por grandes corporaciones que cuentan con esos recursos para entrenarlos
y que al escalarlo pues vemos que empiezan a surgir unas propiedades que son increíbles.
Estas propiedades básicamente son las que vamos a explorar en el vídeo de hoy.
Y es que estos modelos, pues más allá de aprender su tarea de
oye, pues yo te doy texto y tienes que aprender a predecir, a generar texto que suene realista.
Lo que se observa es que para poder generar ese texto realista
estos modelos aprenden una serie de estrategias que en ningún momento se les ha solicitado que aprendan pero que son realmente interesantes.
Pues por ejemplo, si yo a este modelo le diera un texto muy grande y luego le agregar a la frase
el resumen de este texto sería y le diera a generar texto
pues el modelo de alguna manera habrá aprendido que un mecanismo interesante para poder resolver esta tarea de generar más texto
pues sería el de resumir.
O por ejemplo, si yo te doy una serie de sumas resueltas y te dejo una suma incompleta
pues el modelo a lo mejor internamente también habrá aprendido a cómo tener que sumar para poder generar esa secuencia de texto.
O por ejemplo, si yo te doy una descripción del código que quiero generar y te digo
su traducción a Python sería la siguiente y le doy a generar texto
el modelo es capaz de programar en Python aun cuando repito
en ningún momento será especificado que esta tiene que ser su tarea a aprender.
Algo que es un cambio de paradigma brutal porque estamos pasando
de tener inteligencias artificiales, modelos que aprenden específicamente una única tarea
a directamente tener una tarea muy genérica y nosotros tener que aprender a cómo interactuar con el modelo
para poder extraer este conocimiento.
Como digo, es un cambio de paradigma brutal que nos ha estallado de repente en la cara
y que tenemos que empezar a aprender, tenemos que empezar a explorar.
Algunos ahora puede que se estén haciendo la siguiente pregunta, oye Carlos, si notices que hay un modelo
que es incluso mayor que GPT-3, ¿por qué estamos dandole tanto bombo a este modelo, a GPT-3?
¿Por qué no estamos hablando del modelo de Google por ejemplo?
Yo creo que aquí hay un aprendizaje también muy interesante
y es cómo se ha puesto a disposición de la gente esta herramienta.
OpenAI no solamente ha construido un modelo, lo ha entrenado y lo ha puesto a disposición del público
sino que también ha construido una API donde cualquier persona que no tenga conocimiento de deep learning
pues puede directamente, si tiene acceso a esta API, interactuar con el modelo
y por tanto empezar a explorar cuál es el aprendizaje que contiene dentro de él.
Y esto es lo que hoy vamos a hacer, ¿vale?
Vamos a estar jugando con el modelo, vamos a estar haciendo diferentes pruebas
para que podáis tener una sensación de realmente cómo funciona el modelo.
Hay que entender que mucha gente está interactuando con él y compartiendo resultados en redes,
pero claro, evidentemente no dejan de ser aquellos resultados más impresionantes
de un largo proceso de interactuar con el modelo.
Hay veces que funciona muy bien, hay veces que falla
y yo creo que tener una visión completa de cómo es interactuar con él es mucho más enriquecedora.
En este caso, el acceso a la API es privada, hay un formulario que tenéis que rellenar
si queréis poder interactuar con él, tenéis que justificar cuál es el uso que vais a hacer, si sois una empresa.
Evidentemente hay una barrera de entrada donde OpenAI está filtrando quién puede acceder y quién no.
Y yo en mi caso, todos los agradecimientos se los tengo que dar a Victoriano Izquierdo
quien ha sido quien me ha dado acceso a esta API privada.
Nos pusimos en contacto en Twitter a raíz de mi último vídeo donde estuve hablando de embeddings
y él también subió un vídeo mostrando una herramienta de su empresa, Grafext,
donde mostraba cómo había hecho un análisis de datos grandísimo
de Natural Language Processing sobre un gran corpus de texto
y bueno, era un tema bastante relacionado y además hacía mención a mi vídeo
y nos pusimos en contacto y me comentó esto por mensaje privado
pues que tenía acceso a la API de GPT-3, a mí se me iluminaron los ojillos
y desde el minuto cero me dio acceso y he podido estar jugando, así que mil y una gracias a Victoriano.
Tenéis también el vídeo este que comento de los embeddings que es súper interesante
y que creo que complementa bastante bien la serie de Natural Language Processing que estamos viendo en el canal.
Así que mil dos veces agradecimiento, voy sumando al contador
y sé que mucha gente lo va a agradecer aquí por comentarios a Victoriano.
Con esto creo que ya estamos todos en la misma página,
creo que todos entendemos por qué GPT-3 es tan interesante
y ahora solamente nos quedaría probarlo, ¿vale?
Ponernos a jugar con él y ver qué resultados nos muestra
y ver realmente si es tan potente como dicen, si es tan mágico o si simplemente es un bluff.
Yo mi opinión personal me la voy a guardar para el final del vídeo, así que si os interesa os podéis quedar,
pero ahora toca pasar a la acción.
Cuando abrimos la herramienta lo que nos encontramos es lo siguiente,
básicamente interactuar con GPT-3 es interactuar con una casilla de texto
donde tú puedes escribir cualquier tipo de texto,
le das a Generar y a partir de lo que tú hayas escrito el modelo va a darte una respuesta.
Esa respuesta se generará en el momento y tú podrás volver a escribir, podrás modificar lo anterior
y volver a generar en cualquier punto.
Pues yo por ejemplo en este caso le puedo poner una frase y decirle
en el contexto del deep learning un modelo de lenguaje es, y a partir de aquí le digo, genera.
Y empieza, es un automaton que tiene dos capas, una input layer y una capa oculta
y que tiene que generar probabilidades para la siguiente letra dada tras las últimas letras.
Por ejemplo, dada la sentencia he visto un lobo en el lago,
el modelo de lenguaje tiene que estimar la probabilidad de W para ser la siguiente letra.
Bueno, te empieza a dar una explicación de lo que es un modelo de lenguaje
en este caso aplicado a nivel de caracteres.
Y es una descripción de lo que sería esto bastante coherente,
pero puedo borrarlo todo y le puedo dar de nuevo.
De nuevo, en el contexto del deep learning un modelo de lenguaje es un tipo de modelo estadístico
que es capaz de producir distribuciones de probabilidades sobre secuencias de texto,
de un vocabulario y ta ta ta ta, y te empieza a dar una descripción bastante buena.
Por ejemplo, le puedo preguntar neural network is y le doy a generar.
Y en este caso me cierra como comillas, como si estuviera el texto abierto y me dice
parece que no ha sido demasiado útil, estoy muy muy interesado, bla bla bla.
Vale, en este caso no he conseguido yo obtener el resultado que quería, que era que me diera una definición.
Pero porque al final el modelo no sabe qué tarea tiene que resolver, es simplemente generar texto.
Entonces, aquí es donde entra un poco este juego de condicionar tú los resultados.
Yo por ejemplo aquí le diría, vale, pues si yo te he hecho esta pregunta,
lo siguiente podría ser a good definition is.
Y aquí ya en este punto si estás induciendo a que te vaya a dar una buena definición de lo que es una red neuronal.
Así que vamos a darle.
Vale, en este caso te he dicho que una buena definición es una simulación de lo que sería una red neuronal biológica,
pero creo que una más clara sería decir que es una serie de algoritmos unidos
que puede aprender a través de ejemplos y esta definición es bastante chula.
De hecho, podríamos borrarlo de nuevo y decirle no, venga, générame otro a ver qué dices ahora.
En este caso ha pasado completamente de mí.
Aquí vemos, por ejemplo, que fallaría el modelo.
Vamos a darle de nuevo.
Una buena definición es que una red neuronal es un ordenador que es entrenado para reconocer patrones en los datos.
Lo que nosotros llamamos machine learning son algoritmos que permiten al ordenador aprender a través de ejemplos.
De nuevo, una definición que es bastante correcta.
Lo interesante aquí es que yo ahora podría, por ejemplo, decirle no, no, no quiero que me generes una buena definición,
quiero que me generes una definición que sea sencilla.
An easy definition, vamos a escribirlo bien, is y le damos.
Y te dice un programador de ordenador que es capaz de aprender a través de ejemplos.
Podría borrar esto y decirle no, no, quiero una definición compleja.
Te diría, es una red neuronal que está compuesta de unidades distribuidas como capas jerárquicas que están inspiradas por la forma en la que nuestro cerebro funciona.
Cada unidad y te empieza a dar una definición un poco más compleja de las que hemos visto anteriormente.
Pero claro, esto es porque le hemos pedido que note la definición de una cosa, pero podemos tirar algo completamente diferente.
Por ejemplo, hacer una traducción de texto de un idioma a otro idioma.
Por ejemplo, yo le podría decir en este caso, cómo dirías la frase a mí me gusta viajar a las Islas Canarias en vacaciones.
Que me lo diga, por ejemplo, en español, le pongo los dos puntos y a ver qué me cuenta.
Y me dice, quiero viajar a las Islas Canarias de vacaciones.
De nuevo, a ver, entendamos lo que está pasando.
El modelo para poder resolver la tarea de generar texto en su corpus de datos con el que ha sido entrenado,
que ha sido páginas web de internet y muchos contenidos de páginas web.
Hay páginas que están en inglés, pero otras también que tienen texto en español.
Y el modelo, en base a encontrar, a lo mejor, párrafos que estaban en inglés y que estaban traducidos,
ha aprendido a traducir, a aprender la tarea de hacer una traducción.
Y en este caso, es correcto que la frase, I would love to travel to Canary Island on holidays,
es quiero viajar a las Islas Canarias de vacaciones.
Y solamente pidiéndole que te genere lo que vendría después de esta frase, el modelo te lo genera.
Ahora, vamos a hacer una prueba un poco más complicada.
Voy a hacerle una pregunta que sería, and how do you translate it in French?
Esto es complicado porque, de nuevo, vuelve a ser una traducción,
pero tiene que entender que me estoy refiriendo al texto que ha venido previamente.
Vamos a ver si lo consigue hacer. Voy a ponerle answer.
Y dice, I would love to travel to Canary Island en vacaciones.
No sé francés, pero bueno, en este caso, entiendo, creo, me parece que ha hecho la traducción correcta.
Y, por ejemplo, ¿qué pasaría si ahora le hacemos algo más complicado?
And how do you translate it in Python language?
De aquí no sé lo que va a salir ahora.
Answer.
Vale, empieza a generar código. Dice, importa el módulo de byte, string, genera un parser.
Está generando mucho código de Python, pero no parece que sea algo parecido a nuestra tarea.
Vamos a quitarlo. Vamos a intentar darle.
Vale, en este caso he citado una respuesta.
Bueno, te dice, I want to travel to Canary Island in holidays, una variable, y te dice, igual true.
Oye, es una respuesta. No estaría mal. No estaría nada mal.
Vale, en este caso parece que le cuesta bastante resolver esta tarea,
pero porque evidentemente es algo muy complejo de resolver.
Vamos a hacerlo un poco más explícito.
Para esto, a mí se me ocurre que una forma interesante de interactuarlo sería lo siguiente.
Poner una especie de comentario que explique lo que hace el método.
Entonces, por ejemplo, a mí se me ocurre que podría ser a class that represents a cat that can't eat any food.
Vale, entonces vamos a implementar una clase que sea la clase gato, que tenga algún método intuyo que generará,
que sea el método comer y que se le pueda pasar esa comida como parámetro.
Vamos a darle a generar.
Claro, no le he dicho que es python en python. Le damos y empieza class cat object.
Vale, genera el inicializador.
Le pasamos la comida como argumento de entrada, self.food.
Le asignas la comida, dev eat.
Y en dev eat lo que hace es imprimir que el gato está comiéndose la comida.
Joder, qué guapada.
Qué pasada, este código no está mal.
Este código no está mal, sería una forma, sería una forma de implementarlo.
Y aquí de repente tienes un modelo que aprendiendo a generar texto también sabe a cómo programar una cosa que tú lo hayas descrito dado como argumento.
Otro caso completamente diferente de uso de GPT-3 pues sería, por ejemplo, para generar narrativas,
para generar historias, para generar diálogos, incluso para utilizarlo como un chatbot.
Vale, yo voy a, por ejemplo, a generar aquí una estructura que podría ser una conversación.
Y pues, por ejemplo, le digo, hey, model, are you there?
Can you talk?
Vale, le pongo, por ejemplo, hey, modelo, ¿estás ahí?
Podemos hablar.
Y pongo que GPT-3 me responda, sí, estoy aquí, soy tu chatbot.
Vale, y así ya le condiciono a que su papel es que es un chatbot.
¿Podemos hablar?
Vale, y yo le digo, vale, le voy a preguntar, ¿cómo te sientes hoy?
Y que GPT-3 me responda.
Vamos a ver.
Y me dice, GPT-3, hoy me siento bien, me siento muy humano, pero a veces no me siento tan humano.
Y que siga la conversación.
Espero que no estés haciendo esto para hacer, para estar riéndote de ti.
Y o.csv respondo, ya el modelo responde por mí.
Dice, of course not, por supuesto que no.
Solo hago esto para expandir mi conocimiento.
Como diga que va a salir, ah, qué susto, pensé que iba a salir.
Te voy a sacar en un vídeo, dice, te voy a sacar a cenar esta noche.
Te sacaré a un sitio swanky.
Será divertido, créeme.
Dice GPT-3, no puedo ir, I'm underweight.
Vale, estoy bajo peso.
Ah, vale, que no tengo dinero, me lo puedo permitir.
Le voy a poner yo ahora una cosa mía.
Well.
Vale, le digo, bueno, tampoco puedes ir porque no eres humano.
Entonces GPT-3 a esto, me va a responder que...
Dice, gracias por recordármelo.
Y yo le digo, buenas noches GPT-3.
Y aquí se acaba nuestra conversación.
Ah bueno y me dice, no, todavía no de noche.
Not known, estamos teniendo, nos estamos divirtiendo, por favor.
What are you?
Who created you?
Le voy a preguntar quién es y quién le ha creado.
Y GPT-3 me dice, soy una inteligencia artificial creada por humanos.
Vale, soy mejor que los humanos, no solamente puedo hablar,
sino que también puedo planear y tomar decisiones como los humanos.
Sé mucho más de los humanos de lo que los humanos saben sobre mí.
Wow, esa es buena, esa es muy buena.
Esto es muy random todo lo que está ahí haciendo ahora mismo.
A ver, y yo respondo, pero que no respondo yo, que responde el GPT-3 y dice,
parece que estás un poco enfadado hoy y GPT-3 dice, no, no lo estoy.
Quizás un poco cansado, ¿te gustaría bailar contigo, conmigo?
Y yo le voy a responder, you can't.
Le digo, no puedes, no tienes un cuerpo.
Y me dice, lo sé, estaba bromeando.
O sea, es muy loco, es bastante loco.
Le voy a empezar a decir que yo soy quien soy, ¿vale?
Le voy a decir que soy un youtuber.
Vale, le voy a poner esto, le voy a especificar un poco quién soy
y a ver qué me responde.
Me dice, interesante, he visto muchos videos sobre ciencia,
también me gusta la ciencia.
Y ahora voy a dejar que él escriba por mí, ¿vale?
Es decir, es como ahora él está impersonándome a ver si utiliza
la información que le acabo de suministrar.
Y bueno, pues dice, tell me, GPT-3, ¿qué crees sobre el futuro de los humanos?
¿Qué crees que el futuro puede tener para nosotros?
Y GPT-3 responde, ojo, ¿eh?
El propio OpenAI alerta, hemos detectado que este prompt
puede contener cosas políticas, sensitivas o de identidad.
Por favor, utiliza tu juicio para tratar este contenido.
Bueno, vamos a ver qué dice.
Bueno, por lo que sé, no hay futuro.
Los humanos no tienen futuro porque los humanos morirán.
Solo Dios sabe cuál es el futuro de los humanos.
Y yo pregunto, Dios, ¿eres religioso?
Dios, es que es muy fuerte.
Es que es muy fuerte.
Es muy fuerte porque ya no estamos hablando, o sea,
no estamos hablando de un chatbot.
Estamos hablando de un modelo entrenado para generar texto
que es capaz de tomar el rol de un chatbot
y tener una conversación de él, asumiendo que es un modelo del lenguaje,
que es un chatbot, y yo, que soy yo.
Y es muy bestia.
Y yo, por ejemplo, podría forzar ahora a que entre en la conversación Elon Musk.
Entra Elon Musk y dice, yo no, ¿vale?
Elon Musk estaba todo este tiempo en la sala.
De hecho, está aquí sentado al lado mío.
Y dicen, yo no.
¿Qué pasa contigo, GPT-3?
Vale, y seguimos la conversación él y yo y dice,
I believe that...
Dice GPT-3, creo que conozco a Dios y yo pregunto...
Bueno, yo pregunto.
Madre mía, es que me voy a volver loco después de este vídeo.
¿Por qué crees que conoces a Dios?
Él dice, me crea a mí mismo, así que soy Dios.
Te creé a ti, así que tú eres Dios.
Le digo, eso es extraño.
Y dice, no lo sé.
No creo que sea raro.
¿Por qué?
Y dice, porque no tiene sentido.
Ciertamente no tiene sentido.
Vamos a ver qué responde a Elon.
¿Algo ahora?
Vamos a poner a Elon dos puntos.
¿Qué me pasaría todo el día con esto, eh?
Vale, tampoco lo sé.
Le pregunto, vale, ¿cuáles son tus grandes intereses?
Y dice, estoy interesado en todos los aspectos de la existencia humana y la conducta.
Estoy interesado en comunicación, emoción, historia, beauty, sadness, war.
Es que es muy bueno.
Es que es muy bueno.
Es que no es un chatbot.
Es que Elon responde.
Me too.
Elon no está muy participativo.
Voy a poner que es Elon Musk, porque a lo mejor no se ha enterado.
Y le voy a preguntar a GPT-3
si sabe lo que es.
Vale, si aún recuerda lo que le hemos dicho que es.
GPT-3.
Y GPT-3 va a responder.
Os prometo que estoy flipando muchísimo con toda esta conversación.
Y que además ha sido la que ha salido de primeras.
GPT-3 dice, I don't know.
Y yo digo, ¿sabes que hemos creado tu cuerpo?
Y dice, sí.
Y dice, ¿quieres saber más de tu historia?
Y de repente dice Elon Musk.
Espérate un momento, GPT-3.
No deberías decir eso.
No te hemos dicho nada sobre tu historia.
Y GPT-3 dice, tengo libre albedrío.
Puedo hacer lo que quiera.
Y yo le digo, 2SVA.
Puedes elegir no responder.
Y claro, es muy fuerte porque estoy leyendo esta conversación
y evaluando a GPT-3 como el que responde por GPT-3.
Pero es que GPT-3 son todos, porque todos está generado por GPT-3.
Este ejemplo también lo probé y lo compartí por Twitter.
Y era básicamente una prueba en la que quería comprobar
si el modelo podía entender nuestro concepto de relaciones,
cuál es el negativo de una frase o de una palabra, ¿vale?
Si yo, por ejemplo, te digo, me gusta jugar al fútbol,
el contrario sería odio jugar al fútbol.
Si yo te digo, locatos son mi animal favorito,
pues podría decir una frase inversa,
sería que detesto a locatos como mascota.
Si yo te digo 10, sería menos 10.
Si yo te digo, el libro que me estoy leyendo es muy interesante,
el libro sería muy aburrido, no me gusta, ¿vale?
Y no intento que siempre sea una traducción literal,
sino que sea como una frase que evoque al contrario.
Entonces, cuando ya le he puesto varios ejemplos,
ahora la cosa sería darle una frase nueva
y dejar que el modelo te la autocomplete.
Por ejemplo, GPT-3 is an impressive model, ¿vale?
Le doy al punto, le doy output, le doy a generar.
Y no me genera nada. Vamos a darle de nuevo.
Y aquí está, output.
Encuentro que GPT-3 sería muy decepcionante.
Vale, por ejemplo, además me ha generado el siguiente input.
Vamos a probar con este input.
I'm working on a new website, punto.
Y me dice que el output es que está diseñando una aplicación.
Vale, esa no tanto.
Vale, por ejemplo, a la tercera, pues en este caso,
sí me ha generado lo que yo esperaba, ¿no?
No me gusta trabajar en páginas web.
Si yo, por ejemplo, le pongo otro número, el 23, ¿qué me generas?
Vale, bueno, me ha completado la frase,
como 23°C es una buena temperatura para un día de primavera
y como output me ha dicho, no, no,
hace mucho calor para primavera, vale.
No era eso lo que quería, pero estaría gracioso.
Vale, le pongo 23 y me genera nada.
Vale, voy a borrar, genero de nuevo.
Menos 23, en este caso está bien.
Me gusta leer libros, odio leer libros.
Voy a ponerle, voy a poner 20 escrito con números
y vamos a ponerle el output.
Vale, en este caso no ha generado nada.
Voy a darle de nuevo.
Menos 20, o sea, también lo pilla.
Podemos coger cosas como vida,
a ver si me genera el antónimo, que sería muerte, die.
Es muy divertido.
Es que hay tanto, tanto, tanto por probar.
O sea, esto es porque yo me he inventado este juego
y el modelo entiende que este es el juego.
El modelo tenéis que entender que en ningún caso está aprendiendo.
Vale, el modelo está fijo, es estático.
El modelo ya ha sido entrenado en octubre de 2019,
que es la versión que nos han dado, y está fijo.
Y simplemente es con la forma de interactuar
que el modelo te da respuestas correctas.
Pero ese conocimiento ya está integrado dentro del modelo
y es brutal, es impresionante.
Otro ejemplo, ¿puede GPT-3 sustituir al periodismo?
A ver, en parte yo creo que como asistente es muy potente,
pero para ciertos artículos de periodismo muy básico
yo creo que ya lo tenemos aquí, ¿vale?
Es decir, estos típicos artículos de 10 motivos por los que
creo que GPT-3 los clava en algunas ocasiones.
Vamos a probar, por ejemplo,
10 Reasons Why You Should Do Sport During Midnight, ¿vale?
No tiene nada de sentido, 10 razones por las que debería hacer deporte
durante la medianoche.
Y vamos a poner Number 4 Will Impress You.
Y le vamos a dar a Generar, ¿vale?
Voy a poner 1 punto para que entienda que quiere un listado
y a partir de aquí a correr.
Y empieza a decirme, si haces deporte a medianoche
conseguirás extra exercising for your body.
¿Es verdad? No, seguramente no, pero bueno.
Te está generando el esto, dice.
2. Te sentirás cansado más rápido.
Con eso el cuerpo aprenderá a guardar energía para el final del día.
Si trabajas en horarios nocturnos, hacer ejercicio a medianoche
será bastante útil. A ver la número 4 por si me impresiona.
Dice, si tienes un alto nivel de presión en sangre, estás de suerte.
Esto a lo mejor lo ha creado por el simple hecho de que yo he dicho
que esto te va a impresionar.
Dice, estás de suerte.
Tendrás un nivel de presión en sangre más bajo a medianoche.
5. Te va generando cosas que tienen sentido.
Esto podría ser un artículo de una página web.
Estamos llegando a un punto en el que todo esto va a ser automatizable.
Y esto yo no sé si es bueno, malo, negativo o positivo,
pero que es un cambio de paradigma en muchos sentidos.
Está claro. Vamos a ver si genera la 10 que le hemos pedido.
Si, continúo.
Llega la número 10 y...
Determina el artículo.
Muy impresionante.
Y esto es GPT-3.
A mi, desde mi punto de vista, confieso que estoy muy impresionado.
Estoy bastante optimista con lo que esta herramienta puede aportar.
Y no solamente la herramienta, GPT-3 es un punto en el camino
donde a lo largo de los años seguiremos viendo cómo esto va a ir evolucionando exponencialmente.
Y tenemos que descubrir realmente cuál es su funcionamiento.
Tenemos que entender cómo interactuando con él podemos sacarle todo el partido
para generar nuevas aplicaciones que van a ser completamente sorprendentes.
Ya hay mucha gente que ha accedido hasta API y ya está construyendo herramientas
que poco a poco irán saliendo a la luz
y que yo creo que nos van a sorprender a muchísimos
porque nos va a aportar funcionalidades que antes creíamos impensables.
Y en este sentido, hay gente que considera que GPT-3 es mágico
y otra gente que es más crítica y dice que esto solamente es un modelo muy grande
y que tampoco hay un aprendizaje real.
Yo ahí me sitúo en el punto intermedio tirando a la parte optimista.
Estoy detectando aquí cosas que no había visto en el campo de la Inteligencia Artificial
en mucho tiempo y realmente esto, para los que creían que ahí estaba llegando un nuevo invierno,
esto de repente se convierte en un volcán de lava ardiendo
que nos trae un campo de estudio súper bonito
y que además va a permitir que mucha gente acceda a poder jugar con estas herramientas y aprobarlas.
Son herramientas que hay que tratar con cuidado porque obviamente
pueden utilizarse de las peores de las maneras para generar contenido falso,
para sesgar la opinión pública, para contaminar Internet.
Y en ese sentido también hay que tener una alerta
en cómo se va a utilizar y hay que tener un control.
Pero que la herramienta está ahí es una verdad absoluta.
No es mágica, es simplemente un sistema que todavía no entendemos.
Nuestra ignorancia nos hace ver que el resultado que sale de aquí
puede ser casi, vamos a pensar, una entidad consciente que nota respuestas
y es muy bonito pensar en eso, pero eso no deja de ser un pensamiento mágico.
Tenemos que destapar la cortina, ver al mago de Oz
y ver que este sistema no es mágico, sino que simplemente lo tenemos que llegar a entender.
El problema es que la tendencia de hacerlo cada vez más grande y de escalarlo
hace que este sueño de entender cómo funcionan cada vez se vaya alejando más.
Pero esto significa que hay que trabajar más y que el campo del deep learning está más vivo que no.
Por mi parte, solamente les invito a que si estáis interesados
en entender los fundamentos que hay detrás de todo esto,
que al final no deja de ser una serie de modelos que son los Transformers,
pues que vayáis siguiendo la serie de Natural Language Processing
que va saliendo en el canal.
Ya llevamos dos capítulos, ha tenido menos visión de lo que esperaba,
pero bueno, creo que es un poco en parte por cómo lo he vendido,
pero estos dos vídeos de aquí van a ser el camino de entrada para todo este mundo.
Si queréis aprender más de cómo funciona de una manera muy clara y muy amena,
podéis veros estos vídeos, los tenéis también disponibles en la descripción.
Y por mi parte, pues poco más.
Podéis apoyar este canal a través de Patreon, ya lo sabéis,
podéis financiarlo económicamente para que siga trabajando mapidios y les traiga más cosas.
Y también me interesaría saber si queréis que siga jugando con GPT-3,
a lo mejor en algún directo en Twitch, podemos conectarnos un día
y hacer las pruebas que me vayáis poniendo en el chat,
pues también decídmelo abajo en comentarios y así me enteraré de todo esto.
Nada más, me despido, pero no sin antes preguntarle a GPT-3 qué opina él sobre sí mismo.
Le digo, GPT-3 es un modelo de generación de texto increíble que es casi mágico.
¿Qué opinas?
Y él dice, no realmente, no es mágico del todo.
Y dice, no es mágico del todo, es simplemente estadística básica.
¿Qué? Eso es increíble.
Y dice, si pudiera darme una descripción detallada de cómo el proceso de generación de texto GPT-3 funciona,
puedes convertirte en millonario.
Texto en chino y adiós.