logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Ha pasado solo una semana desde que OpenAI celebró su OpenAI Dev Day, su gran evento
para desarrolladores donde la empresa de Samalman no decepcionó a la hora de presentar un montón
de novedades.
Vimos anuncios como la presentación de un nuevo modelo GPT-4 Turbo, con conocimiento actualizado
hasta abril de 2023 y que ya está funcionando dentro de ChatGPT, un modelo cuya principal
mejora la encontramos en el aumento de su ventana de contexto, que pasa de los 32.000
tokens que OpenAI nos ofrecía a principio de año, a unos impresionantes 128.000 tokens,
lo que equivale más o menos a unas 300 páginas de documentos.
Presentaron a GPT-4 Turbo, presentaron novedades en su API, bajada de precios, nuevos modelos,
nuevos endpoints, de todo, un montón de cosas.
Pero quizás lo más potente lo encontramos aquí.
Así que hoy, estamos tomando nuestro primer paso que nos mueve hacia este futuro.
Estamos contentos de introducir...
GPTs.
GPTs son las versiones de ChatGPT para un propósito.
Puedes construir un GPT, una versión customizada de ChatGPT, para casi nada.
Con instrucciones, conocimiento y acciones.
Y luego puedes publicarlas para los otros que usen.
Pueden ser más ayudados a ti.
Pueden trabajar mejor en muchos contextos y te darán mejor control.
Pueden hacer es más fácil para ti cumplir todos los pasos o tener más divertido.
Y podrás usarlas dentro de ChatGPT.
Puedes, en efecto, programar un GPT con lenguaje, solo hablando con él.
Es fácil customizar el comportamiento para que se sienta lo que quieras.
Esto hace la construcción muy accesible y da agencia a todos.
Señoras y señores, ya no podemos hablar de un único ChatGPT.
Sino que ahora OpenAI ha abierto la puerta hacia el multiverso de los GPTs.
Y creedme que esto tiene el potencial para llegar a ser algo grande.
Al menos para OpenAI y para el futuro en el corto plazo del mundo de la inteligencia artificial.
Y por eso hoy vamos a analizarlo.
Y vamos a pasar de evento para desarrolladores a otro evento para desarrolladores.
Y es que te quiero contar algo que sé que te va a interesar.
Y es que Samsung, quedan poquitos días, va a celebrar su Samsung Dev Day 2023.
El evento para desarrolladores de Samsung.
Un evento que podréis seguir este año tanto en presencial como online.
Presentado este año por Bryce Moure, el gran Moure Dev.
Y donde, como en años anteriores, podréis asistir a un evento lleno de tecnología,
componencias sobre inteligencia artificial, desarrollo de apps, ciberseguridad, concursos, premios...
Y muchas más sorpresas que podréis consultar a través de su página web.
Si queréis acudir presencialmente al evento que se va a celebrar en el Green Patio en la
ciudad de Madrid, os dejo abajo el enlace para que podáis registraros.
Pero si no puedes asistir presencialmente, pues no hay excusa, no podrás perderte todas las
novedades de este año.
Y es que también te puedes registrar, os dejo el enlace abajo, para poder verlo online.
Así que apuntadé la fecha en el calendario porque este 23 de noviembre, jueves, tienes
una cita con la tecnología y con Samsung en el Samsung Dev Day 2023.
No ha pasado ni un año, no ha pasado ni un año desde ese 30 de noviembre en el que
ChatGPT llegó a nuestras vidas.
Ese modelo del lenguaje reconvertido a un asistente amigable que ahora puede cumplir las múltiples
tareas que tú le propongas.
No ha pasado ni un año, pero hemos podido ver cómo ChatGPT ha ido evolucionando.
Cómo se convirtió en más inteligente con la llegada de GPT4 o más capaz con la llegada
de los plugins, como recibió visión, oído, voz.
Y ahora la propuesta de OpenAI es que ChatGPT pueda ser más personalizable.
Para que lo entendáis, la llegada de los GPT lo que pone en vuestras manos es la posibilidad
de configurar el comportamiento de los modelos GPT para que éstos se comporten de la manera
en la que tú hayas decidido.
En un proceso donde configurarlos es algo tan sencillo como tener una conversación con
lenguaje natural con el propio ChatGPT.
Es decir, al igual que en el mundo del Deep Learning tenemos la posibilidad de coger un
modelo y hacerle fine tuning para cambiar su comportamiento para que resuelva una tarea
concreta.
Ahora OpenAI nos está facilitando el poder hacer esto, pero a nivel de prompt.
¿Y no os suena esto un poquito a lo que ya os venía adelantando en el video de la
semana pasada sobre el fin de los Prompt Engineers?
Y ahora podría intentar explicaros cómo funciona esto de los GPT y todo lo que podría representar,
pero la buena noticia es que nosotros ya tenemos acceso, así que va a ser mucho más sencillo
que entendáis el potencial de todo esto viendo cómo funciona.
Esta es la nueva interfaz de ChatGPT.
Este es el nuevo portal que nos encontramos cuando accedemos a la página web, donde podemos
seguir seleccionando los diferentes modelos que OpenAI nos ofrece y donde ha aparecido
un nuevo botón en la barra lateral.
Si lo clicamos, entramos a la sección My GPT.
Y aquí lo que vais a encontrar son las primeras versiones de GPT creadas por OpenAI, diferentes
configuraciones donde, por ejemplo, podéis utilizar a ChatGPT en modo Dalí o en modo
análisis de dato o ChatGPT clásico, si por ejemplo no os gusta el nuevo GPT 4 Turbo y
la conexión con los diferentes modelos.
Vale, estos serían los modelos más tradicionales, pero luego encontramos cosas como juegos, encontramos
como asistentes para la escritura creativa, para crear sueños cósmicos, un montón de funcionalidades.
Sin embargo, lo que yo quiero que veáis es lo sencillo que es crear nuestros propios GPTs.
Si clicamos aquí, entramos en el creador de GPT y entonces aquí lo que vamos a poder hacer
es configurar toda una versión de GPT que va a actuar en la forma que nosotros le digamos.
Vamos a pensar, por ejemplo, que quiero crear una aplicación, me lo invento ahora, que cuando
yo le pase una imagen de un ticket, pues me pueda sacar de forma estructurada un JSON
o a lo mejor una tabla de datos con la información que contiene ese ticket.
Vamos a llamarle analizador de tickets y ya está, solo quiero que haga eso.
Pues empezamos a conversar.
Hola, quiero que hagas una aplicación que para una imagen de un ticket dada extraiga
toda la información relevante y la estructure en una tabla.
Se lo damos y vemos que en este momento ya GPT Builder, que es este modelo que estamos
utilizando para configurar nuestra aplicación, está actualizando a GPT, está actualizando
la versión que vamos a ver aquí a la derecha.
Esta es una preview de la herramienta que nosotros estamos creando.
Y fijaos que rápidamente GPT aquí nos está asistiendo en todo el proceso.
Lo primero que nos dice es, mira, para empezar a personalizar tu GPT, vamos a darle un nombre.
¿Qué te parece, por ejemplo, llamarle Ticket Tidy, Ticket Ordenado?
Fijaos que aquí nos está respondiendo en inglés y esto es una cosa que he comprobado
que sucede mucho con GPT 4 Turbo, con el nuevo modelo del lenguaje, y es que tiende a tirar
hacia hablarme en inglés.
Entonces voy a hacer una configuración rápida que os recomiendo también hacer a vosotros
y es dentro de las instrucciones personalizadas donde podremos configurar el
comportamiento general de GPT, es decirle, háblame siempre en español.
Y con esto vamos a ver si con suerte cambiamos la forma de hablar de GPT.
Vale, y aquí vemos cómo efectivamente ahora GPT Builder, cuando lo ha vuelto a ejecutar,
pues si nos está hablando en español como le hemos pedido.
Dice, para este GPT pensé en el nombre Ticket Table Transformer.
¿Te parece bien este nombre o tienes otro en mente?
Vamos a decirle que me parece genial, me parece genial.
También podemos ver a la derecha que ya empieza a configurarse en nuestra aplicación, donde
ya vemos una descripción de lo que haría esta app y también vemos algunas respuestas
predefinidas para comenzar a hablar con el usuario que sería analiza este ticket, por favor.
Necesito datos de este ticket en forma total.
Puedes extraer estos datos que recibo, es decir, posibles comienzos de lo que sería el usar
esta aplicación bastante, bastante interesante.
Ahora lo que nos está haciendo por el otro lado es generar una imagen para nuestra app.
Ha decidido utilizando Dali3 que este podría ser un buen avatar de nuestra app y rápidamente
se vuelve a configurar en la derecha.
Este estilo a mí no me ha gustado.
Le voy a pedir que quiero, quiero algo más minimalista donde se vea un ticket, por ejemplo.
Y nos sale con una imagen como esta que me parece más adecuada o me gusta más para
la aplicación que estamos creando.
Todo esto lo estamos gestionando.
Si os dais cuenta, la programación que estamos haciendo es con lenguaje natural dentro de
la interfaz no code que nos facilita OpenAI.
Si queremos tener más capacidad de control, pues podemos entrar directamente aquí al formulario
donde se están rellenando todos los datos que estamos utilizando.
Pues vemos el nombre de la aplicación, la descripción, las instrucciones que hacen
que GPT se comporte como como le estamos pidiendo.
Esto sería el prompt realmente que estamos creando.
Y luego los comienzos de conversación y diferentes configuraciones.
Interesante que también podemos configurar qué versiones, qué modelos de GPT van a estar
interactuando en nuestra herramienta, por ejemplo.
Yo no quiero que mi herramienta de análisis de ticket pues tenga el web browsing, no tiene
sentido.
Tampoco tiene sentido tener un generador de imágenes como Dalí, pero el Code interpreter,
que es capaz de generar código de programación y ejecutarlo, pues me puede ser útil porque
a lo mejor lo que quiero hacer son sumas de las diferentes cantidades que aparezcan en
un ticket.
Entonces esto lo voy a dejar y con esto al mismo tiempo que vamos creando la herramienta,
pues podemos probarla y vamos a probarlo.
La cosa es tan sencilla como venirnos a internet, buscar la imagen de un ticket cualquiera, pues
me copio esta imagen de aquí, la pegamos para acá, se la damos sin ningún otro contexto,
se la damos a nuestra aplicación y veremos que ya aquí nuestra aplicación de tickets,
pues sabe lo que tiene que hacer porque así está configurada.
En este caso le hemos pasado la imagen y vemos que nos responde.
La imagen que ha subido parece ser de un ticket de compra para extraer la información relevante
y organizarla en una tabla de tabla.
Entonces aquí empieza a extraer toda la información estructurada en una tabla tal cual le hemos
pedido agua medio litro, patatas bravas, croquetas cremosas, tal, tal, tal, que son los
elementos que tenemos aquí.
Esto mola bastante porque de repente tenemos una aplicación que una vez creada podemos publicar.
Podemos publicarla para tenerla nosotros, podemos publicarla para compartirla con un
link o incluso podemos hacerla pública.
A lo mejor tú creas una aplicación que es muy, muy útil.
Una aplicación que ahora va a aparecer en tu barra de tareas como, bueno, pues lo que
es una app para analizar tickets.
Lo que OpenAI está proponiendo con este cambio de modelo es la posibilidad de crear
aplicaciones basadas en GPT.
Por así decirlo, lo que han hecho ha sido una versión evolucionada de un gestor de prompts.
A lo mejor tú antes tenías tus prompts favoritos que cumplían ciertas funcionalidades en un
archivo de documentos y ahora puedes tener una barra de tareas con diferentes aplicaciones
que tanto tú como otros usuarios podéis construir, podéis compartir y esto tiene un enorme potencial.
Y tiene un enorme potencial porque la cosa no se queda aquí.
Vamos a ver qué más podemos hacer.
Vamos a crear otro GPT.
Y ahora quiero enseñaros un proyectillo en el que estuve trabajando hace unos meses y
que ahora me viene de Perlas justamente para la demo que queremos hacer.
Hace unos meses probando Whisper, el modelo de transcripción del habla a texto.
Tengo transcripciones de todos los vídeos de mi canal.
Cada uno de estos documentos sería uno de mis vídeos.
Podemos verlo.
Vamos a abrir.
Pues aquí estaría cada una de las frases con su timestamp.
Proceso para el que debo decir que además me apoyé muchísimo en ChatGPT para construir
todo el código y fue bastante, bastante cómodo.
Y ahora de todos estos archivos .csv del canal .csv, he generado un .txt combinado que contiene,
pues lo vamos a ver por aquí, boom, todo lo que sería lo que yo he ido hablando durante
todos estos cinco años en mi canal de YouTube.
Y ahora, por ejemplo, puedo construir la siguiente herramienta.
Quiero que crees un asistente que resuelva dudas de Deep Learning basándose en el contenido
del canal .csv.
Te voy a facilitar un archivo con transcripciones de todos los vídeos de su canal y quiero que
para cada consulta encuentres en dicha fuente de datos lo que él ha dicho sobre esto y resuelvas
la duda.
Además, vamos a ponerlo más complicado y vamos a pedirle quiero que busques en internet
al final algún vídeo de su canal relacionado con este tema.
Se lo mandamos y que empiece a trabajar actualiza GPT y me sugiere el nombre Deep Learning
CSV Assistant.
Vale, me gusta, me gusta este rollito cerebro, red neuronal, lo tenemos.
Ahora lo que tenemos que hacer es pasarle nuestra fuente de datos y esta es la parte interesante.
Podemos mandarle PDFs, .txt, archivos que contengan más información, más fuentes de
datos que ahora ChatGPT puede consultar.
Y esto es algo nuevo que no teníamos dentro del ecosistema ChatGPT.
Todo lo que está relacionado con técnicas RAG para poder sacar información que añada
contexto a cualquier tarea que queramos hacer.
Esto lo podemos hacer a nivel de creador, diseñador de nuestra aplicación y también
podemos dejar la posibilidad de que el usuario mande sus propios archivos durante el proceso
de análisis, como hemos hecho antes para pasarle una imagen, por ejemplo.
Entonces vamos a pasar, vamos a coger aquí nuestro archivo con toda mi fuente de conversaciones,
de transcripciones del canal y se la vamos a mandar.
Estas serían todas mis transcripciones y nos dice perfecto, ya tengo el archivo con
las transcripciones.
¿En qué forma prefieres que responda a las preguntas con respuestas directas o proporcionando
un poco más de contexto antes de dar la solución?
Además, quieres que siempre cite la fuente de información cuando proporciona una respuesta?
Me encanta.
Sí, dando más contexto y citando la fuente.
Y aquí se vería todo actualizado.
Ya actualizado las instrucciones para el DIP-CCV Assistant.
Y aquí podemos ver...
Uy, ¿qué pasao?
Hemos tenido un problema con el logo, pero Dalí nos ha hecho otro diferente y no pasa
nada porque este incluso está más chulo.
Y esto no nos impide ahora probar nuestra herramienta.
Hemos creado rápidamente un sistema que puede serviros a vosotros para buscar información
de Deep Learning apoyado en todo lo que yo he dicho en mi canal, una especie de buscador
de contenido que es una herramienta que llevo un montón de tiempo queriendo hacer y que
ahora en cinco minutos he podido construirla.
Y vamos a probarla.
Por ejemplo, vamos a preguntarle qué es Gato.
A lo mejor si tú esto se lo preguntas a GPT, pues lo que te dice Gato es un animal que
tiene cuatro patas y tal.
Dentro del contexto de DIP-CCV, y fijaos lo que pasa aquí, ¿no?
Está buscando dentro del conocimiento, el archivo que yo le he pasado, pues encontrará
que Gato es un modelo de DeepMind que bla bla bla y nos lo va a explicar, ¿vale?
Y nos encuentra lo siguiente, Gato es un proyecto de DeepMind que demuestra las capacidades de
aprendizaje y multitarea de un modelo de inteligencia artificial bla bla bla.
Todo esto es lo que yo os presenté dentro del vídeo de Gato.
Vídeo que ahora fijaos, está buscando en el navegador de Internet, está buscando dentro
de YouTube y si tenemos suerte, cruzamos los dedos, ahora nos pondrá un link.
Efectivamente dice, para completar la información sobre Gato puede ver el vídeo titulado Gato,
la nueva IA de DeepMind que lo aprende todo en YouTube, donde seguramente DotsSv ofrece
una explicación detallada y bla bla bla.
Es perfecto y nos deja aquí el enlace para que podamos consultar.
Vídeo que tenemos aquí, un vídeo sobre Gato.
Oye, ¿y qué relación tiene esto con el descenso del gradiente?
A lo mejor son dos términos que tú has escuchado por un lado, Gato, por el otro lado descenso
al gradiente.
Puedes preguntarle cómo se relacionan y yo de eso nunca he hablado en el canal, pero aquí
yo creo que va a entender un poco el contexto de cada cosa.
Dice, el descenso al gradiente es un algoritmo de optimización utilizado para entrenar redes
neuronales como Gato.
Esa sería la conexión entre ambos temas.
Y ahora podría pedirle un vídeo y seguramente encontrará mi vídeo en el canal.
Es súper, súper potente, porque ahora esto abre la posibilidad a que cualquiera de vosotros,
si publicáis un libro, un canal de YouTube, lo que sea, podéis crear vuestro propio asistente
para hacer consultas dentro de vuestro contenido.
Podéis crear un montón de aplicaciones, podéis integrarlo esto con otras herramientas,
que ChatGPT se conecte a una API para que dispare.
Todo esto abre un horizonte de posibilidades.
Y esta es la revolución que OpenAI está poniendo sobre la mesa.
Hemos hecho todo esto porque creemos que la AI va a ser una revolución tecnológica y
sociétal.
Cambiará el mundo de muchas maneras.
Y estamos contentos de conseguir trabajar en algo que empoderará a todos de vosotros
a construir tanto para todos nosotros.
Hablamos antes de hablar de cómo, si dices a las personas mejores herramientas,
pueden cambiar el mundo.
Creemos que la AI será sobre empoderamiento individual y agencia a una escala que nunca
había visto antes.
Y eso va a elevar la humanidad a una escala que nunca había visto antes.
Vamos a poder hacer más, crear más, y tener más.
Y a la inteligencia se integran en todo el mundo,
tenemos superpowers en demanda.
Estamos animados a ver lo que ustedes van a hacer con esta tecnología
y a descubrir la nueva futura que todos vamos a arquitectar juntos.
Esperamos que vuelva a volver a la semana.
Lo que launchamos hoy va a parecer muy quaint
respecto a lo que estamos haciendo ahora.
Gracias por todo lo que hacemos.
Gracias por venir aquí.