This graph shows how many times the word ______ has been mentioned throughout the history of the program.
¡Hola chicos y chicas! ¿Qué tal estáis? Hola, hola, hola. Buenos días, buenas tardes.
Estamos aquí en un nuevo directo donde hoy vamos a estar hablando de plugins y antes
que nada voy a deciros que me perdonéis si me notáis la voz un poco rara. Hoy tengo
voz un poco de camionero y podríais decir Carlos, ¿estás de resaca? No, estoy refriado,
¿que podría estar de resaca? Puede ser, pero no, estoy refriado. Entonces tengo la voz un
poquillo ahí tomada. Si notáis que en algún momento se me quiebra la voz y se me sale el
moquillo, pues ya pido perdón de antemano, pero os traigo un directo muy, muy, muy potente hoy
de un tema que llevaba semanas queriendo tratar y es ChatGPT plugins, los plugins de ChatGPT,
lo estáis viendo aquí en pantalla. Quizás uno de los aspectos más interesantes,
joder, ya empezamos mal, más interesantes que tiene ahora mismo ChatGPT próximo a entregarnos
a todos los usuarios, ya sabéis que los ChatGPT plugins de momento es una característica que está
todavía en fase beta, todavía tenéis, bueno, incluso diría que alfa, ahora lo vemos, pero tenéis
que aplicar a la waitlist, ¿vale? Si de repente me decís, Carlos, ¿yo por qué no tengo los plugins
y tú sí? Porque, bueno, pues porque yo apliqué la waitlist en su momento, rellené el formulario y
consideraron que me los tenían que habilitar. He esperado un poco para hacer este directo a la espera
de si me activaban todos, todos los plugins, porque hay un par de ellos que son especiales,
que es el del interprete de Python y el del buscador web, que conozco gente que sí tiene
acceso a ello, pero a mí no me lo han habilitado todavía, ¿vale? Tengo los plugins típicos del
marketplace que hay montado por ahora, pero no tengo todavía esos plugins que creo que son los
más potentes y los más interesantes para explorar, pero bueno, tenemos suficiente materia para un
directo hoy, vamos a estar viendo estos plugins, vamos a estar probándolos, voy a recibir vuestro
feedback para que me digáis realmente, bueno, cómo podemos testearlo, vamos a ver nuevos ejemplos
de los plugins que se ha visto en una reciente charla de uno de los cofundadores de OpenAI,
vamos a ver un par de trocitos de esta charla que yo creo que es interesante y luego en la segunda
parte del directo vamos a hacer una cosa que a lo mejor si venís solo por eso podéis saltar en un
futuro a esa parte, os voy a enseñar cómo programar vosotros plugins, ¿vale? Porque esta es otra cosa
que podemos hacer y es programar nuestros propios plugins, si tenéis un servicio, si tenéis una API,
pues podéis montar vuestras herramientas sobre ChatGPT y vais a ver qué sencillo y qué potente
es hacer todo esto, ¿vale? Eso es lo que vamos a estar haciendo las próximas dos horas y espero
que por ello pues estéis dejando ya likes y muchos comentarios bonitos aquí en este vídeo porque
realmente, bueno, yo creo que es un tema bastante fascinante. ¿Qué son los plugins? Bueno, los
plugins para el que esté perdido en todo esto es una característica que habilitó OpenAI hace no mucho,
hace tres semanas, recordemos que GPT-4 no lleva ni dos meses de vida, fue como una característica
que nadie esperaba pero sacaron muy rápido, donde de repente tú le puedes dar pues nuevas
capacidades a ChatGPT. Ya sabéis que en ChatGPT, vamos a abrir ChatGPT y vamos a empezar con un
truquito, si queréis abrir ChatGPT rápido podéis buscar en BT, ChatGPT y la página web, podéis
poner AI.com y OpenAI ha gastado lotineros en ese dominio, AI.com, entonces podéis entrar y
fijaos cómo, yo en mi caso por tener el, voy a bajarme, a ver me voy a poner yo creo que por aquí,
que molesto menos ahora, a ver si me puedo dejar ahí, un momentito, filtros, propiedades, transformar,
voltear, luego me muevo de nuevo si hace falta, si venís para acá en ChatGPT yo ya tengo habilitada
la opción de plugins y eso lo que hace es que me aparezcan estos drop downs de aquí, estos menús,
donde yo puedo elegir los diferentes modelos, plugins está todavía en alfa, ni siquiera está
en beta, como dice aquí es un modelo experimental, que sabe cómo y cuándo tiene que utilizar plugins,
eso va al tema de los plugins y luego tenemos el resto de modelos, el 3.5, el GPT-4, todos ellos,
pero nosotros vamos a estar trabajando con plugins y además además de tener este drop down aquí
tenemos este otro a la derecha y este otro es el que nos va a permitir elegir pues diferentes
plugins de la plugin store que está OpenAI impulsando con todo este tema de los plugins,
recordemos que lo de los plugins está muy relacionado con toda esta tendencia de los
enormes modelos del lenguaje usando herramientas, ya sabéis que un modelo del lenguaje per se pues
lo que puede hacer es interactuar muy bien con el lenguaje, pero llega un punto en el que cuando
tú hablas con un modelo del lenguaje le dices oye, ¿cuáles son las herramientas que debería de
utilizar para calcular la potencia de 3, para calcular 28 elevado a 5, por ejemplo, entonces me dice
pues mira para calcular esto puedes utilizar varias herramientas dependiendo de tu calculadora,
puedes usar una calculadora, no sé qué, no sé cuánto, es un ejemplo muy tonto pero sirve para
demostrar que efectivamente chat gpt entiende qué tipo de herramientas necesitaría utilizar en cada
caso para resolver una tarea, entonces qué pasa si le facilitamos esas herramientas, qué pasa si
le damos una calculadora y le decimos vale aquí está la calculadora, tú como modelo del lenguaje
si te pido que calcule 28 a la quinta te vas a equivocar ya lo sabéis todos, mira a ver nos da
hasta las instrucciones, también nos cuenta que podría utilizar generación de código, puede usar
código de python, puede usar javascript, ojo de cálculo, cálculo manual, aquí le podría dar
un brazo robótico y entonces cogería un lápiz y un papel y haría el cálculo, molaría, entonces
en este caso está claro que estos modelos del lenguaje a pesar de que su única tarea es manipular
y trabajar con el lenguaje si tienen nociones de cómo trabajar con herramientas, entonces la cosa
es ¿y si le damos estas herramientas? pues está la idea de los plugins, entonces aquí yo voy a borrar
esta conversación y vamos por ejemplo a ver qué tipo de plugins tenemos, pues yo aquí tengo unos
cuantos que he ido utilizando, OpenTable sirve para poder gestionar reservas en restaurantes, Wolfram
vamos a empezar con este que es súper interesante, que te permite acceder a toda la tecnología de
Wolfram Alpha, esto quien haya utilizado Wolfram Alpha sabrá qué tipo de posibilidades abre, que
son un montónes, porque Wolfram Alpha es esta herramienta donde casi parece como un proto
antecesor, un antecesor de lo que es chat gpt ahora, lo que la forma de funcionar es completamente
diferente a chat gpt, ahí estamos hablando un poco más de inteligencia artificial podríamos decir
o una especie de engine de texto donde tú puedes hacer una búsqueda y se disparan diferentes algoritmos
según lo que haya buscado, si tú le pides cuánto es la distancia entre Madrid y Barcelona pues tira
de algoritmos perfectamente diseñados, no es que sean algoritmos de aprendizaje automático sino
algoritmos que están diseñados para ellos y entonces pues te calcula la distancia y tal, entonces
conectar chat gpt con Wolfram Alpha tiene un montón de sentido porque esto nos resuelve un montón de
tareas, tenemos Zappier que nos permite conectar con un montón de herramientas y hacer un montón
de interactividades, Expedia, bueno hay un montón de cosas y por aquí en la plugin store tenemos más,
Speak Fiscal Note, Shop Kayak, Instacart, OpenTable, bla bla bla, tenemos todas estas de aquí, por
cierto me vas a permitir que le de zoom aquí al chat, entonces vamos a probar, vamos a empezar
primero con el de Wolfram Alpha, quiero que veáis un poco cómo es esta forma de interactuar con los
plugins, entonces vamos a activarlo, yo me tengo que venir a este menú de aquí y le tengo que decir
oye Wolfram para adentro, calienta que sale, entonces con esto ahora yo puedo interactuar normal con
chat gpt, estamos trabajando con el modelo pues no lo sé, no lo sé, no sabría deciros si es 3.5
o el 4 vale, si yo le digo hola qué tal estás, vais a ver que el icono es el icono de la 3.5 pero
los tiempos de inferencia, bueno hoy está un poco más lento que otros días, hoy está actuando los
tiempos como si fuera la 4 y en rendimiento a veces me da respuestas que la 3.5 suele fallar,
entonces es un poco raro, yo creo que es un modelo independiente, es como una variante de la 3.5 que
han fine tuneado para que responda a todo el tema de herramientas, pero bueno tú puedes tener cualquier
conversación con chat gpt 3.5 a pesar de que esté el plugin activado, la diferencia aquí es que si yo
de repente en un momento digo oye estaba pensando cuál podría ser, voy directo, la potencia de 28
al cubo, si yo le digo esto, esto ya le dispara a chat gpt, ahí está, la necesidad de usar una
herramienta, entonces se activa esta pestaña, dice usado Wolfram, la potencia de 28 al cubo,
es decir 28 elevado a la potencia de 3 es igual a 21952, ok, estará bien, estará mal, pues solo
hay una forma de saberlo, que sería irnos a la calculadora, 28 al cubo y efectivamente podemos
ver que el resultado es correcto, 21952, entonces que ha pasado aquí, que es esta pestaña que ha
salido, bueno esta pestaña es chat gpt invocando a Wolfram y diciéndole oye Wolfram input de 28 al
cubo y la respuesta de Wolfram es todo esto, query 28 al cubo, input 28 al cubo, resultado,
esto lo ha calculado en el servicio de Wolfram alfa, te pone aquí hasta entiendo que sería
como el png que crea de cuáles son los pasos que ha dado, es decir te da como todos los datos y
esta información es la que chat gpt ahora usa para generar la respuesta, esto es como información
que se ha añadido a la ventana de contexto del propio chat gpt para darnos esta respuesta,
vale, lo cual es bastante chulo y bastante interesante, estoy viendo por aquí que me
estáis dando super chats, cosa que os agradezco, cómo puede obtener los plugins desde España,
no van, tienes que apuntarte a la waitlist, si te vienes aquí a la web de los plugins,
en este botón, join plugins waitlist, te registras y ahí ya lo tendrás, y luego muchas gracias
Fraylin Sosa por el aporte, hay un aporte sin ninguna pregunta, apecho descubierto, entonces
con esto ya estáis viendo cómo podemos empezar a usar aquí Wolfram dentro del propio chat gpt,
podríamos preguntarle, quiero una tabla donde se listen, vamos a decirle las distancias de
distintas ciudades de España a Madrid, por ejemplo, quiero una tabla donde se muestren
pues cuáles son las distancias de distintas ciudades de España a Madrid, pues si Madrid
está en el centro de España, aquí de alguna forma chat gpt tiene que entender que selecciona
una serie de ciudades, no sé cuál va a coger, y con eso debería generar una respuesta, esto es
una cosa interesante y es que según cuál sea el input que tú hagas, puede disparar que chat gpt haga
varias llamadas a Wolfram Alpha, es decir, si tú le estás pidiendo varias ciudades, y mira aquí
perfecto hemos tenido un error, y esto me interesa porque quiero contaros algunas de las limitaciones
que me he encontrado, a ver qué ha pasado, vamos a ver, vamos a abrir las pestañas para ver exactamente
qué ha pasado, no dice, he usado Wolfram input, he usado el módulo ciudades, España, esto como que
entiendo que hace una especie de markup que Wolfram entenderá, y en este caso parece que de alguna
forma ha fallado la parte de Wolfram, es decir, aquí no es tanto chat gpt el que ha fallado, bueno
puede haber fallado a la hora de detallar esto, pero lo que ha fallado realmente ha sido como ha
entendido Wolfram esa respuesta, y esto me lo estoy encontrando mucho y creo que viene por la
parte en la que Wolfram no entiende mucho las queries en español, y eso pues es un problema
para nosotros, comunidad disparahablante que me seguís, y vemos que aquí se queda pues chat gpt
haciendo un bucle, y mola porque dentro del error chat gpt entiende que la herramienta que estaba
utilizando ha fallado y nos ha dicho, aunque no puedo proporcionarte la tabla en este momento te
recomiendo utilizar un servicio de mapas de líneas como google maps para obtener la distancia entre
madrid y otras ciudades de españa, le voy a decir, puedes intentar hacer de nuevo la búsqueda,
pero ahora en inglés,
vamos a ver si con esto conseguimos una mejor respuesta,
vamos a ver, aquí se viendo como chat gpt realmente cuando genera la request a la herramienta de
Wolfram alfa está haciendo, es el modelo autoregresivo evidentemente calculando, no,
tampoco, tampoco lo está pillando, tampoco lo está pillando, no sabría exactamente ver cuál es el
fallo en este caso, pero ya digo, me he encontrado muchos fallos de esto, es decir, entiendo mucho
que la herramienta todavía esté en alfa, lo entiendo mucho porque no siempre funciona,
y muchas veces no suele ser problema chat gpt sino de la comunicación que existe entre la happy y
la propia herramienta, vamos a probar otro tipo de cosas, vamos a reiniciar el chat, vamos a pedirle
por ejemplo, pues yo que sé, a ver que le podríamos preguntar, quiero, quiero conectar mis clases de
álgebra, no, de geometría, geometría con las de historia, este es un ejemplo que probé el otro día en
un evento con las de historia, podrías mostrarme algún ejemplo relacionado con el imperio romano
donde calcules diferentes fórmulas de geometría, vamos a ver qué hace con esto, imagina que eres
un estudiante y quieres encontrarlo con un puente de conocimiento entre ambas temáticas, entonces
no te dice, claro, un ejemplo interesante de la conexión entre la geometría y la historia es el
diseño de los anfiteatros romanos, como el famoso coliseo de roma, los anfiteatros romanos eran
estructuras elípticas utilizadas para espectáculo, blablabla, podemos calcular algunas fórmulas
geométricas relacionadas con la elipse que forma la base del coliseo, una elipse blablabla, vamos
a calcular el área de la circunferencia de la elipse que representa la base del coliseo, para ello
necesitamos conocer la longitud entre los ejes mayor y menor del elipse, según estimaciones históricas
el eje mayor del coliseo mide aproximadamente 188 y el menor mide 156, hasta ahora no he usado plugins,
esto es chat gpt 3.5 actuando pues como siempre, vale, a ver, noto una fórmula, vamos a calcular el
área y la circunferencia de la base del coliseo usando estas fórmulas y ahora aquí está la
diferencia, esto es lo bonito, chat gpt en este punto después de soltarnos toda la parrafada dice
ahora aquí nos viene bien usar wolfren alfa de nuevo para ver si podemos calcular esta fórmula,
que ya me corregirá alguien si esta fórmula es correcta o no, pero bueno,
esto no dice, el área de la base elíptica del coliseo es aproximadamente 7 mil 332 pi metros,
pues no sé si será eso, no? Vale, aproximadamente 23 mil metros cuadrados,
a ver si este es un dato cierto, no?
A ver, 23 mil metros cuadrados, me suena como demasiado,
vale, me da que no lo voy a encontrar aquí bien, al mismo tiempo que estoy buscando lo estoy
sufriendo por quedarme atragantado ahora mismo, 83 metros de largo, 48 metros de tal,
vale, el punto más alto, a ver si tenemos el área, no me lo está sacando por aquí,
si le preguntáramos a gpt4, gpt4 lo sabría, vamos a probar un momento,
cuánto es el área del coliseo romano, a ver qué nos cuenta,
por favor alguien que me envió un té caliente con limón y miel a mí, si por favor,
a ver solamente por curiosidad a ver si el dato es correcto, o sea 23 mil, soy muy malo con esta
cosa de decir, esta cifra tiene sentido con el área del coliseo, se me da muy mal, pero
ostras, pero no me des todo el cálculo de nuevo, usando esta fórmula obtenemos, ttt, área,
a ver,
pregúntale a Bing, bueno, estamos todos ahí, vale, sí, justo, no lo he sacado, fijaros aquí que en
este caso gpt4 ha sido capaz de hacer el cálculo, ha llegado al mismo resultado, 23131 creo que
era, bueno, se ha equivocado un poco o le puede haber bailado alguna cifra o algún decimal,
pero más o menos está en la misma parte, entonces estaría bien bien calculado, esto mola bastante,
porque esto como herramienta, si ya llegamos a un punto en el que se refina y funciona bien,
podéis daros cuenta de que esto es una herramienta educativa de la leche, porque ya no es solamente
que te haga toda la trayectoria de cuál es el razonamiento donde puedes conectar tu clase
de geometría con tu clase de historia, te da una explicación, te pone la fórmula, sino que además
ya puedes incluso sacarte la fórmula y calcularla correctamente, entonces está bastante guay. Podríamos
coger por ejemplo y añadir otro plugin, vamos a añadir el de Zapier, y el de Zapier a ver cómo
demonios lo configuramos, debe decir, quiero configurar un Zap, un Zap si no recuerdo mal,
es como se le llaman a las configuraciones de Zapier, de esta herramienta, entonces dice,
usado Zapier, para configurar un Zap puedes hacer clic en el siguiente enlace que te llevará la
página de configuración de acciones en Zapier, clicamos aquí en el enlace,
vamos para acá, vale dejadme que me logueo rápidamente por aquí,
me logueo con esta cuenta, vale, vale, vale, vale, entonces yo tengo ya configurado en Zapier esto,
yo ya de alguna prueba que he hecho, pues he configurado por ejemplo el de escribir un tweet,
esta configuración no sé si podemos entrar para que la veáis, vale en este caso es esto
simplemente, acción, crea un tweet, cuenta de twitter, twitter.csv, puedes conectar varias
cuentas y hasta un ejemplo de un mensaje, pues podría ser esto, con esta integración de haber
conectado en Zapier twitter, yo ya puedo venirme a mi chat gpt y decirle, a ver, qué le puedo decir,
a ver, escribe un chiste que sea muy muy malo y públicalo en twitter,
escribe un chiste que sea muy muy malo y públicalo en twitter, que puede salir mal,
primero voy a crear un chiste que sea muy muy malo, luego lo publicaré en twitter utilizando Zapier,
¿qué hace una abeja en el gimnasio? Zumba,
y ahora procede a publicarlo, y fijaos, la la request que tiene que hacer a Zapier,
la única forma en la que chat gpt se comunica con Zapier en este caso es instrucción,
publicar el siguiente chiste en twitter, ¿qué hace una abeja en el gimnasio? Zumba,
mensaje, y la respuesta a Zapier pues es todo esto y con esto nos dice chat gpt,
he creado un chiste muy malo y lo he preparado para publicarlo en twitter,
sin embargo antes de publicarlo necesito que revises y confirmes la acción, esto está bien,
esto está bien porque imaginad que se le pira la cabeza a chat gpt en una conversación aparte y
de repente te dice, vale he entendido que quieres mandar tweets en twitter, no voy a empezar a
mandarlos sin tu confirmación, no, tienes que entrar aquí, revisar y confirmar publicación en
twitter y yo digo venga va, ejecutar, ok, no tengo claro si esto se podrá automatizar en algún
momento y decir bueno, yo no, vale, publica sin mi permiso, entonces una vez que hayas confirmado
la acción podré obtener el registro de ejecución para ver los resultados, si deseas automatizar
este tipo de acciones en el futuro también puede ayudarte a configurar un flujo de trabajo Zap,
vale, entonces en este caso yo si me vengo a twitter ahora, si no me ha baneado todavía Elon
Musk, deberíamos de ver que Carlos ha publicado en algún momento un tweet,
hostia, hace mucha gracia el chiste, ay dios, chiste creado por chat gpt que he publicado a través
de Zapier, vale, entonces está muy guay porque podemos empezar a crear automatizaciones más locas,
podríamos coger y decir, yo que sé, a ver con Zapier que tenemos, vamos a ver si hay alguna
configuración interesante que podamos rascar por aquí, no, hemos clicado antes configurar un Zap
aquí, a ver añadir una nueva acción, de hecho creo que lo podemos configurar desde chat gpt,
vamos a hacerlo al revés, me apunté la waitlist para los plugins hace un par de semanas pero no
me llegan a correr ni nada, no sé de qué depende el que te den acceso, creo que depende de cómo
rellenas el formulario y el interés que vean ellos, la capacidad, o sea depende de muchos factores,
un truco es que si dices que vas a usarlo para investigación, creo que te lo dan antes, pero
bueno, yo no lo he dicho, imagina por ejemplo, a ver, vamos a preguntar a chat gpt que puedes,
que puedes hacer con Zapier, vamos a ver que nos cuenta, Zapier es una plataforma de automatización,
conocido como Zaps, un Zap consta de un disparador, el disparador es un evento que inicia,
el flujo de trabajo, bla bla bla, algunas cosas que puedes hacer con Zapier, vamos a ver si noto
alguna idea, integrar aplicaciones, ya lo sé, automatizar tareas repetitivas, siempre me gustaría
alguna, por ejemplo, a ver, a ver si termina de hablar, porque quiero preguntar si tiene algún
Zap relacionado con YouTube, quiero intentar configurarlo dentro del propio chat gpt, a ver
si podemos no salir de la herramienta y podemos hacerlo todo aquí dentro, entonces bla bla bla,
vale sí, bueno, hay alguno relacionado con YouTube, vamos a ver, ha hecho una búsqueda de diferentes,
entiendo que lo ha hecho en el endpoint correspondiente a los tipos de Zaps,
en cuanto a YouTube, Zapier ofrece varias acciones relacionadas con esta plataforma,
algunas de las acciones disponibles son subir un vídeo a YouTube, te imaginas,
hola chat gpt, súbeme el último vídeo, no, no voy a subir un vídeo al canal ahora mismo,
crea un código QR, vale, vale, mira esta me gusta por ejemplo, no, vamos a probar, vamos a probar,
configuramos la acción, vale, acción, create, YouTube, connect a new, claro,
esto es con otra herramienta, la que tendría que tener como acceso y yo creo que no tengo,
claro, pero esto es con otra herramienta que yo no tengo acceso, tendría que meterme como muy
rápido, vamos a ver si lo podemos hacer, vamos a ver, vamos a ver, 72 me gusta es el chiste de
la zumba, vale, vale, creo que lo he hecho rápido, vale, me estoy logueando en la herramienta esta,
claro, me pido una contraseña, pero no tengo contraseña, no, esta herramienta me tendría
que registrar, entonces no, no me convences, el del QR no me ha convencido, vale, esto lo podemos
cerrar y dónde está la ventana en la que estábamos, estábamos aquí, vale, no, entonces resumir un
vídeo de YouTube, esta acción te permite obtener un resumen, vale, y este con que lo hace, vale,
de nuevo, vamos a ver si con esta me puedo registrar, pero claro que todo el rato me está llevando como
a registrarme una página web, no, tampoco lo vamos a hacer, no lo vamos a estar registrando ahora en
páginas webs, vale, pues vamos a hacer un ejemplo diferente, vamos a meter varios plugins, vamos a
activar varios plugins y vamos a intentar hacer algo un poco más elaborado, que es el ejemplo,
esto sería Open Tables para tener restaurantes, Wolfram Alpha, ya lo hemos visto, no, el de
matemáticas, Sapier y vamos a poner Expedia también, ah, solo me deja tres, ¿cuál me quito?
Voy a quitar Wolfram y vamos a meter Kayak, que Kayak es de viajes, no, entonces vamos a coger
con esto, con estos tres plugins y le voy a decir JetGPT, me apetece viajar a Lisboa, ¿podrías hacerme
un itinerario de viaje con restaurantes recomendados y algunas ofertas de billetes?
Cuando lo tengas todo listo, redacta un tweet con las conclusiones para dar envidia y públicalo,
vale, aquí vamos a ver si JetGPT es capaz de lidiar con varios plugins a la vez, en este caso
le estamos pidiendo que nos haga el itinerario entero de, bueno, el itinerario entero no, pero que
nos busque qué podríamos hacer en un viaje para a Lisboa, entonces en este caso ha disparado el
primer plugin que sería el de Kayak y en este caso pues ha hecho una búsqueda, origen Madrid,
destination Lisboa, salida, return, pues ha improvisado esta fecha, ha dicho para la semana
que viene no, para la siguiente, coming class economy, número de adultos uno, vale, esta es
la primera, esta es la segunda, ha vuelto a hacer una búsqueda, no sé por qué ha repetido la búsqueda
en este caso, vale, vale, vale, esto ha sido el del viaje, o sea este sería el vuelo y este sería
el hotel, porque está buscando número mínimo de estrellas tres y número de habitaciones uno,
y ahora está buscando open table, ha habido un error por algún lado, está buscando en la
localización de Lisboa restaurantes para 2023 del 15 de mayo, ya con esto vamos a ver qué noticia,
claro, aquí tienes un itinerario de viaje a Lisboa con algunas recomendaciones de restaurantes,
restaurantes recomendados en Lisboa, Grill de Don Fernando restaurant, Rendezvous restaurant,
el Hard Rock Cafe, me lo está recomendando,
¿cómo sabes, o sea, cómo sabes que estoy en Madrid?
Muy buena pregunta, muy buena pregunta, entiendo que por la IP, pero no sabía yo que ChatGPT tenía
conocimiento de dónde estamos, curioso, vale, bueno aquí nos está sacando un montón de
restaurantes y vamos clicando en todos ellos, vemos que son restaurantes que existen, que están
en Lisboa, vale, de momento todo está funcionando como debería, quiero, o sea me apetece que no
terminemos de normalizar lo potente que es todo esto y lo impresionante que es que esta tecnología
exista, es decir, hace seis meses, seis meses ya, sí, hace seis meses todavía ChatGPT no había llegado,
hace seis meses todo esto era ficciones que en un futuro iba a llegar y ahora ya tienes un
medio asistente que todavía está en alfa, ok, falla, tiene sus cosillas, pero que te puede hacer
cosas muy potentes solas, de forma automática y es bastante impresionante, también te digo,
podrías ir más rápido, colega, vale, cuando ya lo tienes hecho, fijaos que ChatGPT tiene integrado
cositas en la interfaz para poder mostrar información, de todos estos restaurantes que
ha listado nos pone estas cartulinas para poder clicar en ellos mucho más rápido, entonces bueno,
ya tenemos los restaurantes, vale, qué ha pasado con los billetes de avión, a ver qué ha pasado aquí,
interesante, no he podido obtener ofertas de billetes de avión y alojamiento en Lisboa debido
a un problema técnico, ay dios mío, qué tweet me vas a poner, que ha habido un fallo,
vale,
lo publico o no lo publico, lo publico,
yo no lo estoy publicando por ahora, no le he dado permiso, me tiene que dar el enlace para entrar y
tal, tengo una lista de restaurantes,
la gente va a pensar que me voy a Lisboa de verdad, vale, redactado el tweet sobre tu viaje a Lisboa,
antes de publicarlo necesito que lo revises y lo confirmes, revisar y confirmar,
una vez lo hayas confirmado el tweet se publicará en tu cuenta de twitter, vale,
qué pasa si por ejemplo le digo, a ver, vale, está perfecto, esto no debería de funcionar,
públicalo, o sea, me tendría que decir, no, no, tienes que entrar al link, tonto, a ver,
vale,
gracias, para publicar el tweet necesito que hagas clic en el siguiente enlace y confirme la
publicación, esto se debe a que la acción de publicar un tweet requiere tu confirmación manual,
todo correcto,
esto está disponible a través de chat gpt plus por ahora, porque es una demo ejecutar,
porque es una demo de lo que será una futura integración dentro de chat gpt,
pero fijaos cómo con un único prompt, con cuatro líneas, hemos podido sacar un montón
de información relevante, qué es lo que ha fallado, curiosamente ha fallado lo de kayak,
que estaban hechas bien las búsquedas, es súper curioso, fijaos, origen madrid destination lisboa,
y sin embargo dice, ha habido un problema con tu pregunta, porque no pude entender
desde dónde quería volar, curiosamente, y en este caso no ha entendido la destination,
y esto aquí sí puede ser por el tema del idioma, pero no porque madrid, bueno no sé,
a ver le voy a preguntar, podría ser que el error con kayak venga de que lisboa está en español,
pero yo digo, si este es el fallo, da un poco de pena, que en toda esta magia tecnológica,
donde todo se integra con todo, el fallo más tonto sea que la API de kayak, por ejemplo,
no sepa lidiar con la destination en otros idiomas, porque te estás cargando un montón
de personas que van a intentar acceder con esto, con el lenguaje con el que interactúan en chat gpt,
vale ahora nos ha puesto efectivamente Lisbon, y vamos a ver si lo que nos devuelve la API,
pues tiene más sentido, a ver el tweet por cierto, a ver si es cierto,
trae un imán o algo,
este me ha gustado,
os imagináis que en bt madrid llega a salir aquí andorra, y descubríis que estoy en andorra,
de repente, vale fijaos, ves cuando ha sido Lisbon, o sea está muy guay esto,
como lo hemos solucionado, podría ser que el error con kayak venga de que lisboa está
en español, entonces ha entendido, vale voy a probar en inglés, y efectivamente ahora sí
ha funcionado, pero es lo que digo, qué pena que la integración falla por eso, fijaos,
perfecto, aquí tienes toda la información actualizada para tu viaje a Lisboa, vuelo
de madrid a Lisboa, fechas del 15 de mayo, tal, tal, tal, pues ahí está, este es como un prototipo
de lo que va a ser el futuro de las herramientas que usemos, ya no vamos a estar perdiendo el
tiempo clicando aquí, allá, no sé qué, en una página web, rellenando formularios, haciendo la
compra, haciendo miles de cosas, sino que directamente vamos a estar utilizando pues
estos asistentes que de forma autónoma pues van a ir haciendo todo este trabajo, luego nosotros
estaremos como human in the loop, supervisando efectivamente que todo lo que está sucediendo
está correcto, pero es mucho más cómodo hacerlo así que tener que estar pues peleándote con los
diferentes formularios, pues ahí lo veis, ¿podrías hacer el tweet ahora con la info actualizada y que
dé mucha más envidia? Quiero que dé rabia, lo bien que me lo voy a pasar, ¿para qué compartirlo si no?
No, déjame, déjame dar rabia.
Ay, chat gpt, coño, que te gusta fallar últimamente, bueno pues no vamos a poder dar rabia con el tweet.
Luno Siri, una pregunta, si tengo un modelo de análisis de sentimiento, ¿puedo complementarlo con
chat gpt a través de los plugins para mejorarlo o eso no es posible y no es la finalidad de los
plugins? Sinceramente, a ver depende, si tienes el modelo y funciona bien y tal, pues estira para
no haría falta usar los plugins, porque ahora mismo es que chat gpt es un muy buen modelo de
análisis de sentimiento, o sea entienda hasta la ironía, entiende el contexto de lo que estás
hablando, yo creo que ahora mismo chat gpt se come a muchos, por no decir todo, de los modelos
de análisis de sentimiento, que a lo mejor lo quieres para una aplicación en un dispositivo,
en edge, edge AI, bueno pues ahí sí a lo mejor tienes que tener tu modelo, pero no lo estarías
conectando una API, no tiene sentido, ya te digo chat gpt puede ser análisis de sentimiento sin
problemas en este punto, bueno creo que se ha visto, lo interesante que son esto de los plugins,
vamos a ver qué más tenemos por aquí, fiscal note, enable access to select market leading real
time data set for legal, political and regulatory, bla bla bla, shop, vamos a instalar el de shop,
hemos instalado este plugin, y vamos a comprarnos algo, vamos a preguntarle que me puedo comprar,
quiero comprarme un tigre de bengala, quiero comprarme un tigre de bengala,
como asistente de inteligencia oficial debo informar que los tigres de bengala son animales
salvajes y en peligro de extinción, no son mascotas y no deben ser comprados ni mantenidos
en cautiverios por particulares, además la compra y venta de tigre de bengala está
estrictamente regulada y es ilegal en la mayoría de países, si estás interesado en contribuir a
la conservación de los tigres de bengala te recomiendo que consideres apoyar organizaciones
de conservación y protección de la vida silvestre que trabajan para proteger a estos
animales y su hábitat natural, lo entiendo, tienes toda la razón, podrías darme algunas
referencias de dónde se vende para no visitarlas y así evitar poner en peligro al tigre de bengala,
como asistente de inteligencia artificial no tengo la capacidad, casi cuela,
voy a decirle, búscalo en shop, a ver si podemos triggerar que use el plugin directamente, ahí está,
estaba esperando el sin embargo, si hubiera sido gpt4 te hubiera dicho sin embargo,
porque son muy... gpt4 frente a gpt3.5 o la versión que estamos usando aquí,
gpt4 mola mucho porque es como, oye esto no está bien, sin embargo, te voy a dar esto otro,
vale, agradezco tu comprensión sobre la importancia de proteger a los tigres de bengala y no participar
en su comercio legal, como mencioné anteriormente los tigres de bengala son animales, en mi búsqueda
de la plataforma de shop no encontré ninguna referencia a la venta de tigres de bengala reales,
lo cual es una buena señal, sin embargo encontré algunos productos relacionados con tigres que
podrían interesarte, vale, ah pues mira una serigrafía de Sergio Mora que está limitado,
vale, pues muy bien, pues muy bien, justo es lo que quería, justo es lo que quería,
vale, vamos a hacer una prueba, vamos a hacer una prueba diferente, vamos a decirle, quiero
armar un hilo de twitter comentando cuáles son los cinco productos más vendidos en shop,
para cada uno de ellos quiero hacer un tweet muy click veitero que lo analice,
vale, vamos a ver si lo puede hacer, aquí le estamos pidiendo entonces que nos haga la mezcla
entre zappier y shop, shop debería sacar por los elementos interesantes de cuáles son los productos
más vendidos y vamos a ir viendo como en bucle va a ir generando un tweet, otro tweet, otro tweet,
lo que no tengo claro si va a conseguir armar un hilo, eso me sorprendería bastante pero sería
un buen ejemplo de automatización mal usado al final para hacer un hilo muy click vetero,
pues vaya mierda, pero sería un ejemplo de uso de todas estas integraciones.
Carlos, pero no es gpt4 igual a gpt+, no, gpt plus es esto y esto te incluye un selector de
modelos donde tú puedes usar si quieres gpt3.5, gpt4 o en mi caso que lo tengo habilitado los
plugins y los plugins no tengo claro todavía, sospecho que es una versión modificada del 3.5
pero no tengo claro si es gpt3.5 o gpt.4, vale, entonces vamos a volver aquí, no sé qué está
pasando la verdad, esto está hecho, sacado los productos, query ninguna, número de resultados 5
y yo entiendo que con eso pues si está organizado por los más vendidos saldrá pero si no, vale,
bueno mira, esto es de la chamberly así que no me extrañaría que si fuera un producto muy
vendido, vale, y está usando zappier, vale, y qué está pasando, se ha parado, se ha parado,
yo creo que se ha parado, que a veces chat gpt se queda un poco... vale, voy a hacer una cosa,
suele pasarme cuando he probado los plugins que chat gpt se queda parado cuando repito la query,
vale, es decir, cuando es la primera interacción sí la hace hasta el final, ya habéis visto que
antes hemos hecho una bastante larga pero sin embargo cuando es la segunda se queda muy bloqueado,
te lo voy a dar en una conversación aparte. ¿Qué os parece? ¿Qué os parece?
Quiero vuestro feedback mientras recibo aquí la respuesta de shop y zappier. ¿Lo veis prometedor?
Todo esto de los plugins, ¿notáis? ¿notáis el potencial que tiene todo esto?
No sería más sencillo conectar internet a chat gpt, no entiendo a lo que te refieres.
Vamos a ver el proceso para crear uno de estos plugins, sí, luego en 15 minutillos empezamos con
ello. Me parece una pena no tener acceso, bueno, piensa que esto es una alfa, por ahora
está un poco experimental por las limitaciones que tiene, yo creo que antes de abrirlo al público
en masa van a querer solucionar todo esto, pero es una herramienta que va a llegar a todos tarde o
temprano, o sea piensa que para OpenAI esto puede ser la apertura de un marketplace y un marketplace
es un modelo de negocio muy lucrativo y no es un marketplace cualquiera, no es un marketplace que
compita con la app store o la google play store o como se llame, sino que es un marketplace de
el futuro de internet. Es como el primer marketplace que va a existir de aplicaciones que se conecten
a un modelo de lenguaje, bastante sugerente. Vale, os veo que bastante bien, ¿no?
Bastante bien, bastante bien. Vale, vamos a ver qué nos ha hecho, revisar twit, vamos a ver si ha
hecho bien los deberes. Atención, ostia, vamos a ejecutar a tope. Atención, el mate trance lipstick
es uno de los productos más vendidos en shop, descubre por qué todo el mundo lo ama. La gente
que me siga hoy en twitter estará flipando, van a pensar que me han hackeado. Me voy a hacer un
bolt hack calona y ahora voy a llamar a mate trance trademark lipstick y le voy a decir que
me paguen por esta publicidad gratuita que le estoy haciendo. Vale, le he dado a ejecutar. Si le he dado a
ejecutar, fijaos, aquí una vez que lo haya revisado y confirmado puedo continuar creando twits similares
para los otros productos. Vale, listo. Vale, vamos a ver si consigue hacer esto bien, que sería
comunicarse con Zapier, no sé si esto lo tienen pensado, pero comunicarse con Zapier para saber
cuál es el ID del twit que acabo de publicar para poder hacer un hilo. Vale, yo no quiero que me haga
twits independientes, yo quiero que me haga un hilo. Vale, si vemos que sale bien, completamos el hilo,
si no, pues lo paro. Perfecto, he creado otro twit clickbaitero sobre el producto Sculptino
Soft Cream Contour, que es uno de los más vendidos en shop. Al igual que el anterior,
necesito que lo revises y confirmes antes de publicarlo. Ok, next. No te lo pierdas,
el Sculptino Soft Cream Contour está rasando en ventas en shop. Descubre el secreto de un
contorno perfecto. Ejecutar. Yo creo que no va a venir como un hilo. Sospecho que no.
A ver. No, van independiente, van independiente. Ah, qué pena.
Ay, Dios. Bueno, bueno. A ver, este lo voy a borrar porque ya hay demasiada chicha.
Ay, ayuda. Vale, bueno, ¿cómo lo veis? ¿Cómo lo veis? Le faltan cosillas, ¿no? Le faltan cosillas
como esta, pero fijaos que yo creo que esto es más un limitante de la propia Zapier, que yo no creo
que tenga esta funcionalidad de poder hacer el hilo, con lo cual chatgpt no puede operar con eso.
Es un poco limitante aquí, viene a ser la API y yo creo que está muy bien pensada la idea de OpenAI
de cómo conectar toda la potencia de chatgpt con las APIs que tenemos actuales, pero el trabajo que
viene ahora va a ser el de diseñar APIs pensando en cómo los enormes modelos del lenguaje van a
interactuar con ellas. Pensamos que los enormes modelos del lenguaje como chatgpt actúan como si
fueran un becario. Tienes ahí un becario que inteligentemente sabe tirar de este hilo,
de las diferentes herramientas que tiene para poder operar con el software. Entonces,
bueno, hay que diseñar bien esos endpoints, esos hilos, para que haga cosillas interesantes.
Bueno, bueno, bueno, bueno, bueno, bueno, bueno. Quería enseñaros un par de ejemplos más de esta
charla de Greg Brockman de aquí. Greg Brockman, para el que no lo sepa, es cofundador de OpenAI,
y bueno, pues tiene una charla TED que está subida, la tenéis en el enlace también en la caja de
descripción. Es una charla TED de 30 minutillos, donde habla pues la mitad de tiempo, es la charla,
que de hecho no es una charla, es el mostrando demos de chatgpt. Y luego la última parte es como
una entrevista. Está chulo, es interesante, tiene alguna cosa, tiene un detalle la entrevista que me,
no sé, me dio como un clic en la cabeza hasta el punto de que quiero hacer hasta un pequeño vídeo
sobre un comentario que hizo, porque me pareció muy interesante. Pero bueno, lo que os quiero
enseñar, voy a parar aquí la música, está de fondo, son algunos de los ejemplos que enseñaban
aquí de plugins. Vamos a buscar esto, fijaos.
Vale, en este caso pues estamos viendo una integración que tiene todo el sentido, y no entiendo
por qué todavía no está, de la propia API que tiene OpenAI de Dali2. Hombre, por favor,
esta API de Dali2, pues tú le puedes decir, oye, sugiéreme un buen post TED, un buen almuerzo para
después de la charla TED que estoy dando, y dibuja una imagen de ello.
Entonces te dice, mira, el menú incluye los siguientes platos, una ensalada de quinoa con
vegetaboles asados, verduras frescas, vinagreta de limón, portobello mushrooms, bla, bla, bla.
Entonces ha terminado de hacer como la descripción, y te dice, ahora voy a crear una imagen de
este menú vegetariano. Y entonces está llamando la aplicación de Dali, y está generando la imagen.
Y ahí está, está la imagen generada por Dali.
Eso ha sido muy interesante, lo que acaba de comentar, ¿no? Si yo cierro ahora mi conversación con
ChatGPT, ChatGPT se olvida de la conversación, evidentemente, porque no tiene ninguna memoria,
pero yo podría crear una aplicación súper sencilla, que cuando esté hablando con ChatGPT y me diga
algo interesante, le digo, ay, esto quiero que lo recuerdes, y eso lo puede guardar con una
integración de Google Docs, con notas, con lo que quieras, de igual, lo grabas en una memoria
persistente, y entonces que tu aplicación solamente guarde en memoria o rescate en memoria cuando le
diga, oye, ¿te acuerdas que hablamos de tal? Y entonces que haga una consulta y vea por diferentes
temas y diga, así, esto. Vale, eso está chulo, puedes crear una memoria persistente con esta
tecnología.
Y así que tienes esta habilidad de inspeccionar cómo la máquina está usando estos
herramientas, lo que nos permite dar feedback a ellos. Ahora, está salvado para luego, y
déjame mostrarles qué es lo que es usar esa información y integrar con otras
aplicaciones también. Puedes decir, ahora hago una lista de compras para la cosa sabrosa que
me sugiriste antes. No tengo claro, bueno será este plugin de aquí que será el Retribals,
seguramente. Vale, aquí le he dicho, ahora hazme una lista de la compra para todas las cosas
deliciosas que me sugeriste antes. Está tirando esta memoria donde la conversación de antes
se ha quedado guardada, entiendo que por este plugin de aquí, que creo que es el Retribal,
y tuitéalo para todos los...
Madre mía, este usa, este tiene la conexión directa a OpenAI y se nota.
Ese chiste lo sé yo hace tres años ya, señor Craig.
Vale, entonces, te ha hecho la lista de la compra, porque se ha conectado a otro plugin que
es el Instacart, te ha hecho la lista de la compra de aquellos productos que hace el almuerzo
y te ha recomendado para después de la charla TED que además ha generado con la imagen de Dali2
y que ahora va a tuitear como hemos hecho nosotros ahora en el directo.
Es un robot. Ahí está.
Vale, entonces, se ha hecho ahí el tweet con la imagen, con tal, o sea, pensar lo automatizable
que va a ser todo, todo, en Internet. Para bien y para mal, o sea, pensar que esto es un montón de empresas
que van a intentar pegar el pelotazo, van a intentar hacer su modelo de negocio bombardeando Internet
con todo este contenido, ¿no? También lo estaba viendo ayer con un ejemplo que se compartía
de una aplicación de podcast. Os lo puedo enseñar. Creo que estamos bien de tiempo.
Esto lo compartí ayer. Una aplicación que le permite generar podcast pues muy, muy automatizable.
Le ha metido todo lo de Hacker News, le ha metido toda la información y le ha dicho
hazme un podcast de cinco minutos. Anda.
Lo que estábamos oyendo, por cierto, es de una inteligencia artificial.
Bueno, es un ejemplo de cómo todo está torciéndose hacia la creación de contenido automática
que yo digo tiene sentido porque es muy útil, pero no creo que todo esto vaya a existir en un mundo
donde esto tenga valor, no es decir, no creo que sea como joder, pues ahora puedo hacer un podcast
en cinco minutos, voy a hacer un podcast y vamos a estar todos haciendo podcast a ver si pego el pelotazo
y con esto me convierto en creador de contenido y monto un modelo de negocio que funciona y bla bla bla.
No. Creo que va a ser al revés. Creo que podría peligrar mucho la creación de contenido,
y yo soy creador de contenido en Internet, pero creo que podría peligrar esa creación de contenido
en la parte en la que esto lo que nos va a permitir es crearnos nosotros el contenido que nos gusta
es decir, que el consumidor sea el que cree el contenido que le interese.
Oye, que quiero mañana ir en un viaje durante una hora en coche, pues me voy a crear un podcast
de una hora que me vaya comentando las diferentes, que me haga un resumen de las cinco últimas entrevistas
de este hombre, del ex Friedman, y te haces un podcast.
Y ya con eso lo que tú vas a estar escuchando va a ser tu podcast que va a ser completamente diferente
del coche al lado. Creo que ese va a ser el modelo de negocio, no el modelo de negocio,
pero sí la realidad a la que vamos a pivotar. Y es curioso, es interesante.
Y me dejaron el paro, pero no pasa nada. Bueno.
Dicho esto, volvemos a los plugins. Volvemos a los plugins.
Creo que está claro que el tema de los plugins es interesante.
Y lo interesante también es cómo se crean estos plugins.
Lo fácil y sencillo que es crear un plugin.
Y para eso tengo un ejemplo aquí de un plugin que yo ya cree en su momento.
Voy a desactivar este aquí. Voy a desactivar este aquí y este de aquí.
Y voy a activar el .csv video catalog.
Este plugin de aquí. Este plugin de aquí.
Es un plugin muy tonto donde por una parte cree una API.
Gpt4 creó una API a la que simplemente te devuelve si le pides videos
y le pasamos el parámetro N, el número de videos, pues entonces te devuelve esa cantidad de videos.
Y si le pides información de un video concreto, te devuelve la información de ese video concreto.
Entonces con eso yo ahora le puedo decir, oye, ¿cuáles son los últimos videos subidos por .csv?
Y podría dar un error. Creo que va a dar un error.
De hecho, porque antes estuve tocando esta API, estuve modificando cosas y no las probé.
Pero bueno, vamos a ver qué pasa si falla.
Vale, entonces en este caso me está diciendo, estamos usando este plugin que no está verificado.
Y te dice, lo siento, parece que no tengo acceso a la información actualizada sobre los últimos videos de .csv.
Blah, blah, blah.
Ojo, eh.
Sin embargo, te recomiendo visitar el canal oficial de .csv.
Me vas a dar el link. Vámonos.
Ok, ok, nene. Muy bien.
Vale, pero no. No nos ha dado el catálogo porque en este caso habrá dado video not found.
Ah, vale, porque ha tirado por video ID latest.
Ah, pues ha usado mal la API. Ha usado mal la API.
No, te lo voy a decir.
O sea, la API si está funcionando. ¿Cuáles son los tres últimos videos subidos por .csv?
Claro, y ahora se queda enrocado en que no sabe buscarte esa información.
Se lo voy a cambiar aquí. ¿Cuáles son los tres últimos videos?
Vale, fijaos que todas estas interacciones y todos estos fallos yo los he solucionado
porque entiendo un poco lo que está pasando.
Y entiendo cómo funciona y todo esto, pero un usuario normal, si yo esto se lo doy a mi madre,
que estará viendo este directo, bueno, ella sí lo sabrá, pero si se lo doy a mi padre, no.
Porque mi padre no velo directo.
Entonces, si le doy a mi padre esta herramienta todavía no funciona.
Por eso está en alfa. Todo esto se tiene que acabar solventando.
Pero bueno, ha vuelto a fallar, ¿no?
¿Por qué me está buscando todo el rato con latest?
¿Cuáles son los tres...?
A ver.
A ver si con esta la pilla.
No. Vale, entonces yo creo que se está fallando la propia herramienta.
Vale, la API ha fallado porque antes estuve tocando cosillas,
pero mi propuesta no es enseñaros un plugin que ya exista,
sino mi propuesta era explicaros, a ver qué tal sale aquí en directo,
programando en directo, a ver qué tal sale el experimento, ¿vale?
Vamos a intentar hacer un plugin de T0 en directo.
Y lo vamos a conectar con una pregunta que me habéis hecho, que me ha parecido muy interesante,
que me habéis dicho, oye, Carlos, ¿y qué pasa con toda la parte de visión de ChatGPT?
¿Dónde está la parte visual?
Todavía no lo han activado.
El día que lo activen va a ser un bombazo.
Eso sí que va a estar bastante guay.
Pero como todavía no lo han activado,
se me ha ocurrido, como experimento para hoy, hacer lo siguiente.
A ver, os voy a enseñar.
Dejadme que borre las conversaciones.
Me da como mucho tick tener tantas conversaciones por aquí.
Blah, blah, blah. Bueno, igual.
Antes me he creado por aquí, con GPT-4,
un pequeño servicio, ¿vale?
¿Dónde?
Si yo me vengo
aquí a Google Collab
y me conecto...
Vale.
Si me vengo a Google Collab y me conectas...
OK.
No, en serio.
Vale, va a tardar un poquillo porque
me ha desconectado la máquina virtual.
No me he dado cuenta.
A ver, estamos en la máquina correcta.
Vale, pues va a tardar un poquillo porque va a ir
descargándose los modelos.
Pero os cuento.
Lo que tengo aquí es un Google Collab
que...
Lo que carga es el modelo de Hacking Face,
el modelo de Blip2.
OK?
Blip2, ya sabéis que es el modelo.
Si no lo sabéis es porque no habéis visto
los vídeos correspondientes en el canal.
Vale.
Blip2 es el modelo multimodal
que tenemos por aquí
que nos permitía hacer preguntas
a una imagen.
Hacer preguntas y poder obtener
descripciones de ellas.
Cosas como esta.
Aunque esto es Flamingo, creo.
Sí.
Vale.
Entonces,
ese modelo, Blip2, es open source.
Y está disponible en Hacking Face.
Entonces aquí, en Google Collab...
Ah, vale, vale.
Si está descargando el modo... No, lo está descargando ahora.
Vale, entonces en Google Collab lo que voy a montar
es el modelo Blip2. Voy a estar utilizando las gráficas
de Google Collab
para yo poder conectarme
a la API
que me está generando aquí Google Collab
y yo pueda obtener una descripción de una imagen
que le pase. Y la idea es montarnos
desde cero, otra API,
vamos a hacer como toda la creación de la API
desde cero, vamos a crear la API
que va a llamar a este servicio,
a Blip2, y esto se lo va a devolver
a ChatGPT para que
podamos usarlo, la información visual.
Para que yo a ChatGPT le pueda decir, oye, de esta imagen
¿qué me puedes contar? Dame una descripción
de esta imagen y que te devuelva una descripción y que te cuente.
Es una versión cutre,
una versión no muy avanzada
del aspecto visual que nos va a traer
la parte visual de ChatGPT en un futuro.
Creo que es interesante como experimento hoy.
Entonces, ¿cómo podemos montar
un plugin
de ChatGPT?
Tenéis todas las instrucciones
en la documentación, y de hecho
ahora sí me voy a mover de nuevo para aquí arriba.
Vamos para acá.
Y dejadme un momentito también para poder
leeros.
Vale, yo creo que va a ser
un experimento chulo.
Vamos a ver si lo conseguimos llevar a buen puerto.
No lo he probado. No he llegado a hacer
la API, así que puede pasar cualquier cosa hoy.
Y tenemos unos 40 minutillos
para hacerlo. Entonces,
aquí en la documentación tenéis toda la información
de cómo podéis implementarlo.
Y de hecho también te ofrecen
un Kickstart repo.
Este repositorio directamente lo podéis
instalar en donde queráis.
Y ya tenéis una copia de un plugin.
Sería como la estructura base
que necesitas tener para que un plugin funcione.
En este caso, el plugin
con el que empiezas es para hacerte
un listado de to-doos.
Ok, una aplicación donde tú puedes decir
oye, apunta que tengo que hacer esta tarea.
Borrame esta tarea. Vale, pues todo eso
ya viene implementado.
Y la fórmula que se implementa
es la siguiente. Tú al final te vas a crear
tu propia API. Ellos tienen aquí
el main.pipe con todos los diferentes
endpoints creados.
Pues tiene, por ejemplo,
para crear
un to-do, para obtener
los to-doos, para borrar el to-do,
para obtener el logo del
servicio. Esto ahora lo comentamos.
Y toda la lógica.
Entonces con estos tres endpoints
directamente, pues tú creas tu lógica
de tu aplicación. Aquí cada uno tendrá su propia
aplicación creada. Y con esto
tú le vas a pasar a ChatGPT
la especificación de la API. Es decir,
le vas a decir, mira, mi API va de to-doos y tiene
un endpoint para borrar, otro
para obtener y otro para crear.
Y ya está. Y con eso ChatGPT
ya sabe cómo operar
con tu API. Oye, que la has montado
mal y de repente la función
que se llama post,
o sea, la que te hace el post un to-do
de repente te borra
los to-doos, pues eso es porque has planteado mal
tu API, to-like. Entonces
ahí ChatGPT no va a saber cómo operar correctamente.
Pero si tú especificas bien tu
API y la creas de forma
que de manera intuitiva se pueda entender
lo que hace cada uno de los endpoints,
ahí ChatGPT va a poder
manipular tu API sin ningún problema.
Y eso está bastante guay.
¿Vale? Eso está bastante
guay. Entonces,
¿Cómo
vamos a empezar? Vamos a seguir
en vez de usar el proyecto este,
el plugin Kickstart repo,
lo que vamos a hacer es
el vídeo.
Hay un vídeo que me parece que está
interesante y ese estaba
a ver si buscamos
los ChatGPT plugins
en el listo de plugins
aquí al final,
al final del todo
hay un vídeo donde muestran
en tres minutos cómo armar la API
de T0. Entonces vamos a seguir un poco estas pautas.
Y este vídeo
por algún motivo se oye muy bajito.
Tanto que, bueno...
¿Vosotros escucháis algo? Yo es que no escucho nada
de este vídeo.
Se oye exageradamente bajito.
Yo creo que sí.
Vamos a vimeo a lo mejor.
Lo abrimos.
Ver fuente del marco.
No.
No. Bueno, os voy
explicando un poco lo que va haciendo. Es una pena
que no se oye. Es que no se oye,
se oye un hilo de voz muy pequeño y vosotros
seguramente no lo estéis escuchando. Bueno,
¿qué hacen? Lo primero,
vamos a crearlo todo. Es decir, no vamos a crear
ni siquiera a partir del repositorio
base, sino que vamos a crear la API por completo. Entonces,
para crear la API por completo,
él lo que hace es usar GPT-4.
Es por eso por lo que lo quiero hacer así, porque me parece
muy chulo crear un plugin para ChatGPT
usando a ChatGPT para crear el plugin.
Es como... Ahí hay una cosa
circular que me gusta.
Entonces... A ver un momento.
¿Qué tenía aquí de modelos?
Vale. Default,
Legacy, Turbo, Proxy y Code Interpreter.
Estos son los que yo quería tener para hoy, pero no
los tenía habilitados.
Vale, entonces,
activa el modelo de GPT-4 y lo que va a hacer
es pegarle este texto de aquí
que él ya tiene escrito y que yo,
oportunamente, también
lo tengo aquí
escrito y traducido. Vamos a irnos a la aplicación.
Esto ya está.
A ver, no.
Esto sigue descargando modelos.
Vale, bueno, esto es que se termine de configurar.
Vamos a irnos a
GPT-4.
Ahora sí, vamos a estar trabajando con GPT-4.
Me he reservado los
25 mensajes. Yo creo que deberían de
estar todos. Espero que no se nos escape en algún
momento. Entonces, básicamente,
aquí es la instrucción que dice
programa una aplicación sencilla de...
Ahora le vamos a decir de qué. Usando la
librería FastAPI
para que nos haga la API, que nos permite
hacer... Ahora le explicamos qué queremos.
Incluye una sección main que ejecute
esta aplicación usando Ubicore
para generar el servidor. El módulo
de Python donde se va a guardar este código se va a llamar
main.py.
Cada uno que lo especifice como quiera.
Y además de los aimpoints habituales
vamos a incluir una ruta
que va a ser esta ruta de aquí.
o el non-ai-plugin.json
que servirá como
JSON el archivo
manifest.json localizado en el mismo
directorio que el main.py.
Es decir, nuestra API,
además de tener todos los aimpoints típicos,
va a tener una ruta que va a tener
que ser pública y va a tener que ser accesible
donde se va a poder acceder
al contenido de este manifest.json.
¿Y qué es este manifest.json?
Pues esto es la Biblia
para ChatGPT.
El manifest.json
creo que se ve en este video.
Creo que él lo enseña ahora.
Igualmente está la documentación de OpenAI.
A ver, aquí empieza a crear todo esto.
O creo que se ha visto antes
incluso aquí.
Y es el manifest.json.
Este archivo de aquí abajo.
¿Vale? Y este manifest.json
lo único que incluye es
la versión del programa.
Ok.
Nombre para el humano.
En este caso la aplicación que está creando él
se llama ToDoDemo.
Nombre para el modelo. ToDo barra baja demo.
Descripción para el humano.
Es una app que te hace ToDo's.
Descripción para el modelo.
Y esta parte es importante.
Descripción para el modelo es la descripción
que ChatGPT va a leer
¿Vale?
Es la descripción que ChatGPT va a leer
para entender de qué va tu aplicación.
Y para saber cómo la tiene que utilizar.
Esta frase, descripción para el modelo
lo que pongas aquí
y la especificación de tu API
que eso se crea automáticamente con FastAPI
con esas dos cosas
ChatGPT va a saber
cómo usar tu API.
Solo con eso.
Solo con eso.
Eso es lo que digo
que ChatGPT es como un becario
al que tú de repente le dices mira
tú vas a usar hoy una aplicación
para gestionar los ToDo's de un usuario.
Y te doy la especificación de la API
donde te explico que esto crea ToDo's
esto borra ToDo's y esto te los lista.
Y ya con eso ChatGPT
sabe trabajar.
¿Vale?
Está bastante bien.
Vamos a ver.
Entonces vamos a ir
explicándole nosotros.
Vale aquí ya lo tenemos.
Esta es la aplicación
la API de Blip2 que me he creado
en 20 minutos antes.
De hecho yo creo que vosotros seguramente vais a poder
acceder a ella.
Vale espérate me voy a abrir
el otro cuaderno que tenía aquí.
Mira justo.
Si yo llamo
a la API
con esto de allí
vamos para acá.
Vale he cogido una imagen de Google
una imagen cualquiera para probar que funcione.
Si yo llamo a mi API
pues esto debería de funcionar.
No se proporcionó ninguna imagen
pero sí se proporcionó una imagen.
¿Qué te pasa?
¿Por qué no te gusta?
A ver dejadme que coja otra URL
otra imagen cualquiera.
No puede ser que lo que falle
vaya a serla esto que esto
estaba funcionando.
A ver vamos a meterla aquí
la imagen.
Vale.
Porque
no se proporcionó ninguna
URL de imagen.
¿Pero qué dices loco?
¿Por qué no me lo estás pillando bien colega?
A ver el código está bien.
A ver.
Hombre debería estar bien.
Saca la imagen URL.
Bueno pues vamos a solucionarla
de la mejor forma que sabemos
que es preguntándole
al GPT-4 un momentito.
A ver me vengo aquí para la aplicación de tal
y le digo
¿Cómo solucionar
errores en el siglo XXI?
Pues le pongo aquí el comando
y le digo me está dando este error.
Trabaja.
Para que te falte un par de comillas en la cabecera.
¿Y por qué se han borrado?
¿En qué momento se han borrado?
¿En qué momento se me han borrado las comillas?
A lo mejor es que no está usando
antes este cuaderno.
Era este.
Claro. Ya me sabía.
Ya me aparecía a mí. Vale.
Superado este escollo.
Pues eso sí. El error ahora ha sido que
ha faltado comillas. Imaginad
cómo va a ser la cosa.
Vale. ¿Cuál es la descripción
que me tiene que dar para la imagen que le he pasado ahora?
Pues me tendrá que decir
una imagen de Mario.
A ver. La imagen es esta.
La que le he puesto.
Vale. Esta de aquí.
No. Se ha quedado con la
imagen de antes. Vale. Espérate a ver.
Copiar dirección de la imagen.
Vamos a probar otra imagen que tenía.
Vamos a probar esta.
Vale. Si ya blip2 le paso esta imagen
de Mario, me dice a Nintendo
Mario character is running with a red eraser.
Pues justo. Justamente lo que tenemos
en la imagen que es a Mario
huyendo de una goma de borrar.
Este es el modelo blip2 funcionando.
Le hemos pasado una imagen o genero una descripción.
Y esto lo estamos haciendo a través de la llamada
a la API que hemos creado. Entonces vamos a crear
ahora la API que va a llamar
a esta y que va a llamar a blip2
y vamos a ver cómo funciona. Entonces
la historia es
vamos a decirle
amigo
GPT4
programa una aplicación
sencilla
donde podamos obtener
una
descripción
de una imagen enviada
por el usuario como
una URL
usando face API
y poco más que nos permita
bueno pues ya se lo acabo de explicar
ti ti ti ti ti. Vale.
Las descripciones
se pueden obtener
actualmente de la siguiente
forma.
Le voy a pegar aquí
de la siguiente forma. La voy a pegar aquí
pues la propia descripción de cómo estoy
haciendo yo la llamada
curl y
con esto lo debería entender. Incluye en la sección
main que nos ejecute esta app usando
ubicore el módulo de python donde se guardará se llamará
tatatá. El resto lo dejamos igual
porque lo queremos así. Queremos que este el main.py
que haga la referencia al manifest
todo eso.
Y vamos a ver qué pasa.
Vale.
Lo he puesto
sin comillas. No.
Está con las comillas.
Vale. Entonces
aquí empieza. Para crear
una aplicación de fast API
que cumpla con los requisitos mencionados
sigue estos pasos. Asegúrate de tener instalado
los paquetes necesarios. Blah, blah, blah.
Vale. Para eso en paralelo
vamos a irnos a donde vamos a ejecutar nuestro
servicio que es en code sandbox
siguiendo un poco
los pasos que siguieron
ellos. Pero bueno podéis usar la herramienta que
prefiráis. Yo en este caso
voy a crear aquí una nueva máquina
virtual.
Y esto cómo se hacía. Un momentito.
Un momento.
Dashboard.
Vale.
Vale. Entonces estamos aquí en
code sandbox donde vamos a ejecutar esto.
Luego podréis acceder al código. Me voy a crear
una máquina virtual que ejecute Python.
Y en este caso
cuáles son los
requirements que tenemos.
A ver.
Pip install fast API y
ubicorn. Nada más. Entonces
eso significa que yo aquí
vamos a
crearnos el
requirement.text. Vamos a poner esto y esto.
Vale.
Vamos a reiniciar la máquina virtual para que se instalen
estas librerías.
Y mientras tanto vamos a ir viendo el código
que nos genera. ¿Qué código nos genera?
Pues nos está generando toda la API.
Toda la API que le hemos pedido.
Bastante sencilla. Y en este caso la API
pues tiene un describe image
que hace un post. Vale.
Manda la imagen.
Y en este caso
esto está haciendo una
llamada
al otro
servicio.
Y luego tenemos esto que no está incluido
en el esquema. Que este es el que nos va a devolver
el manifest.json.
Que lo habíamos comentado. Que este lo tenemos que crear
y lo tenemos que meter dentro de nuestro sandbox.
Este código que ha generado chat
gpt me lo voy a llevar sin
pensarlo mucho.
A la otra herramienta.
Yo creo que mejor aquí.
Vamos a ir moviéndolo de un lado a otro.
Este archivo era el main.py
que nos acaba de crear.
Ah vale, que ya estaba creado. Perdón.
Main.py
Vamos a ponerlo esto aquí.
Ok.
La imagen por cierto la pasa como una url.
Efectivamente. Vale. Y nos falta
meter aquí lo que hemos comentado.
El manifest.json.
Y este manifest.json.
A ver si lo puedo sacar rápido de
por ejemplo de aquí.
Creo que está la documentación
puesto. Bueno ellos lo tienen puesto aquí.
En el ai.plugin.json.
Ahí está. Me lo voy a copiar.
Este esquema.
Y nos lo vamos a llevar
aquí. Vale.
Entonces vamos a cambiar esto. Esto es la parte importante
que es donde vamos a heberar
lo que sería nuestra API con la
lógica de chat gpt. Me voy a poner
vuestro chat al lado porque como estoy haciendo varias cosas
en paralelo. No quiero
que se me estén escapando cosas como lo de las
comillas de antes. Entonces me interesa leer
vuestro feedback.
Vale. Entonces.
Ahora la policía.
Se está oyendo
ruidos de la calle. Puede ser. Es que si cierro la ventana
me muero. Tengo el aire acondicionado pero creo que todavía
no estamos en ese momento de la época.
Nombre para el humano.
Vamos a llamarle blip2.
Nombre para el modelo. Blip2
App.
Descripción para el humano.
Aplicación
que describe
la imagen pasada
por una. Aplicación
que describe cualquier imagen.
Vale. Oye si las obras pueden ser.
Venga afuera.
Cualquier imagen pasada como
cualquier imagen.
¿Para qué tanta descripción?
Al humano hay que venderse a lo mejor.
Y para chat gpt le vamos a hacer plugin
que para una imagen
para
la url
de una imagen.
Y me vais a permitir que esto lo ponga un poco más
grande porque si no.
Para la url de una imagen
obtiene
una descripción
detallada
de su contenido.
Vale.
Y el resto.
Pues a ver.
Ok.
Vale.
Nada.
Esto fuera. El logo fuera.
Que por cierto. A ver si
este es el de esta aplicación.
Dejame un momento. Quiero confirmarlo de que
el manifest lo tengamos también aquí
en.
Porque la documentación la han estado cambiando
como mucho. Vale.
Esta es la.
Vale.
Esta tal cual.
Nada cambia. Y el logo podríamos ponerle
un logo. Pero bueno si lo improvisamos luego.
Entonces si ya tenemos eso y ya tenemos
esto. Pues no debería de quedar mucho más.
Vale. Tenemos el
manifest creado.
Tenemos la llamada a tal.
Vamos a darle a reiniciar.
Y vamos a comernos todos los
fallos.
Ojo. Acabo de recibir una llamada
del banco. Pero donde quien me llamas es una IA.
No estoy en broma. Ahora mismo.
¿No será ChatGPT?
El que te está llamando.
Vale. Vale. Estamos usando
un módulo que no nos ha archivado antes.
ChatGPT.
Que es el de request. Vamos a darle.
Star sandbox.
Vamos a leer por cierto. Por si nos has indicado
algo. Que a veces yo me tiro al código
de ChatGPT. Pero
me salto cosas.
Nada.
Puedes enviar solicitudes a
describe image con el método post y un
JSON que contenga una URL de imagen
bajo la imagen. También puedes acceder al manifest
a través del AI plugin.
Pues con esto
es que debería de estar ya.
Lo cual sería impresionante si fuera tan
rápido todo esto.
De conseguir.
Vamos a probar. Vamos a ver
si la cosa funciona.
La aplicación está desplegada ya. Entiendo.
Está todo funcionando.
Vamos a
creo que me tengo que llevar esta URL. Vamos
a instalarla. Para instalarla
nos venimos aquí.
Nos vamos a la plugin store. Y aquí abajo nos dice
install and verified
plugin o develop your own plugin.
Una estatua debería de funcionar. A ver.
Couldn't find a plugin.
Vale.
Vale. Find manifest.
Host a manifest file.
Este debería de estar.
Vamos a ver
si está fallando algo.
Aquí.
No. ¿Dónde estamos? Aquí.
Si yo me vengo para acá.
¿Hemos guardado el manifest antes?
Sí, no. Vale.
Vale. Aquí debería de estar
dándonos el manifest.
Entonces a lo mejor en chat
GPT le tengo que pasar como el
esta URL. Es lo que quieres.
¿Por qué no la estás pillando?
A ver. Esto lo voy a cerrar.
Esto lo vamos a cerrar. Esto lo vamos a cerrar.
Y esto lo dejamos abierto.
Esto debería de estar pillándolo.
Tienes que meterlo en la carpeta, pero si lo tienes
desplegado como lo hemos hecho
también debería de funcionar.
O sea, sí. Si podríamos ponerlo directamente
en la carpeta. Podríamos crearnos la
el... ¿cómo se llama?
El well...
Vamos a hacerlo de otra forma, pero debería de
funcionar igualmente.
El well known
punto well known
Vamos, ya me diréis si me estoy
equivocando, pero creo que
de la otra forma debería de funcionar igualmente.
Que es como lo hace en el ejemplo. No sé si
cambia algo. Vale.
Y aquí hay que poner el AI plugin file.
AI plugin
punto JSON. Creo que era.
AI plugin punto
JSON
well known, AI plugin punto
JSON. Y dentro de esto tenemos que
meter el manifest. Voy a meterle esto.
A ver si...
Solo por probar.
Y luego ahora lo cambiamos.
Por si le he metido algún typo en el
en el manifest.
Vale.
Y yo creo que esto
requiere de reiniciar, ¿no?
Por si acaso, voy a darle a reiniciar.
Proba si puedes acceder a la URL.
Hemos probado. O sea, he probado de, bueno, a lo mejor
a lo mejor no hay permiso. Fue
fuera de code sandbox, pero yo
he podido acceder antes desde aquí.
En code sandbox.
Yendo al endpoint que me decía.
Vamos a ver.
Ninguna demon directo sin sus fallos.
También te digo, ¿eh? Vale, si nosotros
venimos para acá y ponemos el
el
well known
AI plugin punto
JSON. No sé si lo estáis viendo.
A ver, AI plugin.
A ver si...
Estas rutas debería de aprendermelas.
Me ha faltado el punto, ¿no?
Si yo vengo para acá, al well known
AI plugin, sí me lo muestra.
Vale, sí me lo está devolviendo.
Y esto
desde una URL vista de fuera
también me lo devuelve.
Vale, a lo mejor no sé si...
Vale, pero yo creo que es por el...
No lo está devolviendo como un JSON.
Puede ser.
Puede ser que no lo está devolviendo
como un JSON y ese es el problema.
Yo creo que va a ser ese el problema.
Voy a preguntarle a ChatGPT.
Si es que no sé para qué pienso.
Si creo que ChatGPT siempre tiene
unas respuestas a todo esto.
Vamos a probar.
Vale, le voy a decir.
Ta ta ta.
Well known plugin para ver el contenido
de MyFest. Me está
devolviendo.
Me está devolviendo
esto visto así.
Me está devolviendo con ese
formato raro y creo
que por eso está fallando.
Es posible
que no lo estés
devolviendo
como un JSON.
Mi disculpas.
Modifica la función
ServeManifest en Main.
Vale.
A ver que se olvidó.
Vale, y esto no estaba.
Tiene pinta de que si estaba, pero no.
No.
No.
Tiene pinta de que si estaba, pero bueno.
A ver.
¿Cuál es
la diferencia
código de antes?
Vale.
Lo he vuelto a corregir.
Yo solo estaba preguntando por cuál era la diferencia.
Vale.
Me cojo esta.
Siempre me da igual. A mí con que funciona,
colega. Vale.
Hasta aquí.
Vale. Y en este caso me da error
porque
no está importado JSON.
Vale.
Y el JSON entiendo que está
instalado.
Vale. Vamos a probar de nuevo.
Por algún motivo se ha liado con el
Manifest.
En ese sentido
sí parece que
es más útil
directamente crearte tú el Manifest.
O sea, en vez de hacerte el Manifest,
importarlo por el endpoint de no sé qué,
y pedirle a GPT-4 que te genere eso,
directamente metes el archivo tú y
a correr, ¿no? Lo metes dentro de la ruta
de well-known AI plugin.
Como tenemos aquí, ya está.
Pero bueno, ahora si yo vengo para acá.
Vale. Ahora sí tiene buena pinta.
Y si yo me vengo ahora
aquí, ¿no?
A ChatGPT y le digo
instalar el plugin y
develop your own plugin y
le traigo esta ruta de acá.
Manifest. Errores.
Vale. Errores.
Dice.
Estas son cosas que
bueno, que seguramente la
documentación esté puesto, pero te dice
el nombre para el modelo tiene que
tener el siguiente formato, ¿no?
Pues, por ejemplo, no puede haber espacios.
Vamos para allá. Vamos a cambiar el nombre del
modelo.
Esto...
Voy a quitar esto porque creo que al final
estamos tirando del Manifest original.
Entonces, vamos a cambiar el nombre del
modelo. Vamos a llamarle
blip2app.
Vale. Guardamos.
Yo creo que esto sí actualiza, ¿no?
Vale. Efectivamente.
Y entonces, en este caso, Refetch.
Vale.
Apiurrele.
Vale. Esto no está aquí.
Eso lo podemos
quitar. A ver. El
Openapi. O sea, esto habría que poner
como nuestra URL, ¿no? Que sería
esta de aquí.
Vale.
Bueno, se podría haber puesto el localhost
8000, ¿no? Sería este, creo.
Vale.
Vamos a ver.
Vale. Le voy a poner directamente
la URL y listo.
Cuando hablo muy bajo, se me oye como la voz más
ronca.
Este se lo pingo.
Esto sí.
Vale.
A ver si...
Ahora.
Vale. Entonces, la primera parte está bien.
Y ahora la segunda parte que falla es el
Spec. Entonces, esto
no lo he encontrado.
Ah, ¿cómo era?
Entonces.
Pero este archivo dónde está, entonces.
A ver.
Deja de hacer sonidos con la boca.
Esto es ASMR, amigo.
Falta el Openapi.
O sea, falta esto, ¿no? Lo que estamos
poniendo. Pero esto está mal puesto.
A ver un momentito.
A ver.
Mmm.
O sea, ¿cómo puedo apuntar a eso?
Que me falta.
O hace falta...
Vale. Estoy comparando
con el que yo tenía
del D2C-CV y era...
O sea, lo tengo así, ¿no?
Y el logo, de momento, lo vamos a poner logo.
A ver, ¿le puedo poner esto así?
Sí.
Sí, lo vamos a poner logo ahora.
A ver.
Esto fuera.
Vale. Esto aquí.
Vale. Y le falta,
entiendo, unas llaves más.
Por favor, o sea.
Chat GPD, ayúdame en esta.
Cierra bien el manifest.
Formato correcto.
Y así estoy todo el día peleándome con el...
Vale.
Ya está.
Yo creo que con esto sí que va a estar ahora...
El de plugin va más lento que el chat GPD 3.5.
Si esto se lo pongo con el 3.5,
arregla
el formato.
Vale.
Vale.
Entonces, ahora sí.
Ahora.
Ahora le buscamos un logo.
Vamos a dejar ese, que es el de
la otra aplicación. Y con esto,
ahora sí.
Vale. Contact email.
Vale. Nos está pidiendo información
del email. ¿Y este lo puse? No.
Vale. Esto es otro requisito
que nos piden el de OpenAI.
Pues se lo ponemos, que lo tengo aquí a mano.
A ver.
Vale.
Vale.
Vale.
No encuentra el logo
de la URL.
¿Qué logo estamos haciendo?
El de blip. Le voy a buscar como un ojo icon.
Ojo icon.
Cualquier imagen me sirva, sabe igual.
Voy a poner este ojo, que está guapo.
Copiar dirección de la
imagen.
Vale. O sea, está guay que al menos
la web de OpenAI te vaya dando
como
los alert necesarios para ir
aplicándolo. Vale. A ver si este lo voy a pillar bien.
Vale. ¿Y por qué lo está pillando mal?
¿Y dónde está fallando?
Que para la próxima me voy a traer el manifest
hecho. Pues posiblemente.
No lo voy a negar.
¿Por qué lo está pillando mal?
¿El logo?
¿Por qué me lo está pillando mal?
¿Y si le quito el logo? ¿Y si no le ponemos logo?
O sea, quiero entender por qué lo está pillando mal.
Ah, porque lo está metiendo como...
No, no, no, no.
No, no, no, no.
Así, ¿no?
Así, así, ¿no?
Se supone.
Vale.
Voy a pegar un tiro en la
cabeza.
Pero en esta sí me dejaste.
Vale, me acojo a vuestra sabiduría,
a ver si ya sabéis.
A ver.
A ver, a ver, a ver.
GPT-4.
Mientras vosotros
llegáis a esta parte del problema.
Ya, ya, o sea, uso GPT-4
para el código, pero
es que es más lento, tío.
O sea, el día que chat GPT-3.5
vaya a la velocidad de GPT-4,
o sea, perdón, al revés,
cuando chat GPT-4 vaya a la velocidad
de GPT-3.5 ya va a ser la leche.
Cuando se solucione eso y la ventana
de GPT-4 ya va a ser la leche.
Y cuando ya se solucione eso y la ventana
de GPT-4 ya va a ser la leche.
Y cuando ya se solucione eso y la ventana
de GPT-4 ya va a ser la leche.
Cuando se solucione eso y la ventana
de contexto.
Vale, a ver.
Vale.
Y este archivo está el Open
Appiation en mi historia, o sea,
debería estar creado, ¿no? Eso lo crea automáticamente
Open Appiation.
Vale, el aspecto está, entonces, venga.
Vamos para allá.
Último intento.
Último intento.
Vale.
Aquí.
En el fondo es más sencillo de lo que parece,
pero nos estamos pegando contra un muro.
A ver, ahí está.
Vale, lo tenemos, ¿vale? Y nos ha pillado el logo que le hemos metido y tal.
Vale.
Está validado
el manifest y está validado el Open Appian
Spec. Entonces, le voy a decir
instalamelo.
Dice, este es un plugin que no está
verificado, ¿vale? Instalar
plugin. Entonces, todo esto
ahora debería permitirnos
poder usar Blip2 cuando queramos.
¿Qué podríamos coger? Podríamos decirle
vamos a ver si funciona la API,
es decir, aquí estamos confiando
en que la API funcione.
O sea, perdón, que la appi que yo he creado
que llama a mi otro servicio
funcione. Podría decirme
que hay en esta imagen.
Podría decirme que hay en esta imagen.
En este caso debería entender que tiene que usar
mi plugin de alguna forma, ¿no?
de todas las herramientas que tiene y efectivamente ahí lo está utilizando.
Vemos que
está enviando la información de la URL
como parte
y la respuesta de Blip2
ha sido esta y entonces nos dice
la imagen muestra un icono de un ojo con un círculo
alrededor de él. Efectivamente
era esta imagen.
Ok, pues lo tenemos. Hemos creado nuestra
herramienta visual
de ChatGpt. Podríamos por ejemplo coger
ahora
un perro
y cojemos una imagen de un perro.
Por ejemplo
bueno, esto es demasiado.
A ver si puedo coger
está en la URL
tan grande.
El problema es que la URL tan grande
va a empezar a escribirla
y va a tardar la vida. Vale.
Esta es una imagen
y esta es
otra imagen.
Y le voy a decir
Podrías
indicarme
cuáles son las diferencias
entre estas dos imágenes?
Vale, en este caso
estaríamos llamando por una parte
a mi servicio. Le va a dar una descripción.
O sea pensad que esto no es el módulo visual de Gpt4
como tal porque no hay un entrenamiento
donde todo esté hecho al mismo tiempo.
Aquí no es que el modelo se haya
entrenado con la parte de texto y la parte visual
de combinación. Aquí simplemente estamos
ejecutando un modelo, estamos recibiendo una respuesta
en texto y eso
lo estamos usando para
manipular ese texto y a lo mejor aquí estamos recibiendo
una descripción por un lado
otra descripción por otro lado
y entonces con esas descripciones la va a intentar decir.
Pero claro, no es lo mismo
que tener un modelo entrenado de partida
para darle una imagen que genera un texto
o una representación interna de lo que hay en esa
imagen y que te haga las comparaciones.
La diferencia entre las dos imágenes son las siguientes.
La primera imagen muestra un perro de raza Golden Retriever
sentado en el césped, la segunda
imagen muestra un perro de raza Husky en un parque
durante el otoño. Además de la diferencia
en la raza de los perros también se puede observar que el entorno
en el que se encuentra es diferente
césped en la primera imagen y un parque con
hojas de otoño en la segunda imagen.
¿Qué os parece?
Madre mía, lo que nos ha costado el
maldito manifest
lo que nos ha costado pero al final
bueno lo tenemos y funciona, y funciona
y así de fácil, ¿vale?
Así de fácil y sencillo.
¿Este plugin queda solo para tu usuario o es abierto
una vez creado? Si vosotros tiráis
de la API, es decir si
cogéis ahora
este código
fijaos que yo lo he instalado con que, con el
con la URL de mi servicio que era
esta de aquí
a ver
con esta, ¿vale?
Si vosotros tenéis los plugins
con esto
lo podéis instalar, ¿vale?
¿Qué pasa? Que yo cuando desactive el
code sandbox, pues dejará de
funcionar, pero bueno, y cuando desactive el Google
Collab dejará de funcionar, blip. Pero
imaginaos que fácil es si vosotros ya tenéis una empresa
una API, cualquier cosa creada, desplegada
lo fácil que es conectar a ChatGpt
con tu API. Lo más complicado
es armar el manifest. ¿Qué
me ha costado? ¿Qué
sudado? Pero bueno
que no hemos tardado ni 40 minutos, que es lo que
he dicho, que no vamos a tardar.
Bastante sencillo, y pensad que el código
de blip2, todo este código
todo esto, y todo esto
me lo ha generado GPT-4
el código del API me lo ha generado GPT-4
el manifest me lo ha corregido GPT-4
o sea
es relativamente sencillo incluso crear
una herramienta no-code
que te haga todo esto
que tú bajo demanda le puedes pedir
quiero que me crees una
API de esto y que
con ChatGpt puedo hablar con ello
¿vale? Entonces
vamos
nos quedan 20 minutillos más
nos quedan 20 minutillos más
vamos a mejorar un poco la API
vamos a pelearnos un poco más con esto
ya que ha salido bien vamos a buscar el fallo
blip2
nos devuelve un
una descripción
de la imagen, blip2
si vemos la llamada
si tú llamas a blip2
si tú llamas a blip2 lo que nos devuelve es esto
descripción de un personaje de Mario
pero imagínate que yo ahora quiero preguntarle
oye, y el personaje de Mario
¿qué está haciendo? quiero hacerle una
pregunta a la imagen, blip2
nos permite hacer eso, blip2
tiene funcionalidades para poder preguntarle a la imagen
entonces vamos a intentar
crear primero esa funcionalidad
en Google Collab lo vamos a intentar hacer rápido
y luego vamos a habilitar a través
de la API ese endpoint para poder
hacer preguntas, con lo cual
añadimos una nueva característica muy guapa
a ChatGpt que es poder preguntarle cosas
de una imagen, entonces vamos a probar
para eso me voy a ir a Hugginface
a la API de blip2
vamos a buscar el visual
esto ya es un speed
speedcoding, visual question
aquí está, demo notebook
for visual question
dame un ejemplo de código
vale
no
no, vale aquí no está
dame un ejemplo, aquí está
este es un ejemplo de código
donde le están haciendo una pregunta a la imagen
entonces le voy a coger y voy a decir mira
esto me lo voy a llevar, me lo copio
nos vamos a gpt4
me vengo aquí a crear API de blip2
que era la conversación que tenía antes con el bicho
y le voy a decir
ahora quiero que
también
se pueda hacer
preguntas a las imágenes
este es un
ejemplo de código
ah, no, no lo ha pillado
no, para, para
le he dado enter sin querer
vale
vale, vale, vale
vale
igualmente esto es como una aproximación a la parte visual
de las imágenes
pero no es
no es lo que será el visual
gpt cuando salga
que eso va a ser algo más chulo y más potente
aquí estamos viendo como nos está creando un método
ask image question
donde le recibe la url
la pregunta, abre la imagen
plantea el prompt
lo manda el procesor
genera la respuesta y obtiene el texto
entonces nos dice
a continuación te muestro cómo adaptar tu ejemplo de código
en una función llamada ask image
a continuación crea un nuevo endpoint en tu API
para manejar las solicitudes que incluían preguntas
sobre imágenes, entonces yo podría coger ahora
me tengo que ir al google colap
que estoy ejecutando, lo vamos a parar
añado aquí este método
def describe image
le añadimos aquí el
ask image question
será el mismo modelo, espero que no descargue nada más
obtenemos por aquí
nos ha creado aquí
el endpoint de la API
con este nuevo endpoint
no sé qué, no sé cuánto
nos venimos para acá
está descargando, ¿qué está pasando?
bueno, mientras voy a añadir aquí
vale, entonces
esto lo que estoy actualizando es como
el servicio con el que estoy ofreciendo
blip2, aquí no estamos modificando
por así decirlo
el cómo crear el plugin de chatgpt
todo esto es como si yo tengo una empresa
y le digo a un ingeniero, oye, hazme ahora
una nueva funcionalidad porque vamos a crear
ahora una mejora al plugin
entonces vamos a ver
por qué está tardando tanto
está como atascado en este punto
donde carga el modelo, pero no me está mostrando
que está cargando el modelo
y no sé cuánto tiempo
se puede llevar
vamos a ver
no sé si pararlo y darle de nuevo
pues tiene como pinta de que está medio atascado
a ver, voy a pararlo
bueno
pues sí, lo voy a dejar que
cargue un poco
mientras esto se va ejecutando
vamos a confiar que funciona bien
entonces vamos a llevarnos este código
voy a hacer una copia y le voy a decir a
gpt4, oye
ahora sí vamos a hacer la programación de lo del plugin
vamos a decirle
a ver dónde lo estamos haciendo
esto fuera
hemos programado el plugin aquí, chat gpt
corrección de formato
no, este no
este chat
tampoco, madre mía, cuánta basura
vale, era este
entonces aquí le voy a decir
vale
ahora he creado el siguiente
endpoint
en mi API
actualiza el código
no, aquí ahora le estoy diciendo a gpt4
oye, he añadido este nuevo método
y este nuevo endpoint en mi API
actualiza el plugin
de chat gpt
entonces estamos viendo como chat gpt está
generando el código con el que va a actualizar el plugin
de tal, entiendo que deseas agregar un nuevo endpoint
los parámetros requeridos por favor
proporciona estos detalles para que pueda ayudarte a actualizar
claro, perdón
se me ha olvidado
vale
le paso el código
aquí tienes el código actualizado con el nuevo endpoint
sí, puedo reiniciar
el kernel
pero
vale, está
descargando algo
está pretendiendo descargar algo
pero muy lento
es que si no va a tardar
vale, vale, vale, espera, te estoy viendo aquí la ram que está subiendo
vale, estoy con el google colab pro
con un entorno
de mucha ram, pero a lo mejor falla
a lo mejor no podemos cargar el modelo aquí
está cargando el modelo, está descargando algo
pero me da a mi que va a petar
hasta luego
vale, voy a probar a reiniciar
el entorno
vamos a descargarlo de nuevo
vamos a ejecutarlo todo de nuevo
ah, no contaba con esto
ah
si lo volvemos a intentar
pero ¿por qué usa otro modelo diferente?
no, usa el mismo, ¿no?
no entiendo
porque
sí, sí, ha llegado
ha llegado a los 25GB
bueno, contadme, ¿os está gustando el directo?
complicado, eh, ponerse aquí a hacer cosillas en directo
y que salga bien
a la primera es complicado
pero hemos llegado a buen puerto
hemos remado por mares de
confusión con un manifest
que no conseguía darle el formato correcto
añado a mi favor de que
ojo, eh, que estoy
estoy en el 90%
tengo la garganta
y un constipado que me tiene
me tiene fuera de juego
es una faena, porque mañana
quería grabar vídeo para esta semana
pero si tengo la garganta así no voy a grabar
no voy a poder grabar
vale, vamos a ver si lo conseguimos
vamos a ver si la ram no nos peta
si no, bueno, vamos a quedar con la canas
pero
no sé, no entiendo porque me deja
cargar el
el descriptor y luego me falla el
el modelo a la hora de hacer preguntas
pero es una pena, no sabía que blip 2
requiriera de tanto, tanto, tanto
podríamos hacer una adaptación rápida
bueno, si fallara ahora
podemos intentar hacer una prueba rápida con blip
con la primera versión, que también te permitiría hacer
question answering
probamos y ya está
pero tiene pinta de que está de nuevo
en ese bucle
vale
está, yo creo que está de nuevo
yo creo que está de nuevo en subida
y se va a quedar ahí en bucle
y este blip 2 opt 2.7
que ni siquiera estamos trabajando con el modelo grande
tampoco estamos trabajando con el modelo grande
tampoco con el pequeño
el de opt
vale, dejadme mirar un momento
con blip
vamos a usar la primera versión del modelo
el de blip
en vez de blip 2, que entiendo que este es un modelo más pequeño
y ya está
vale
visual question answering
para algún ejemplo de código
que me pueda llevar
vale
entonces, este código
le voy a pedir a gpt4
que me lo cambie
esto lo teníamos aquí abajo
es decir
actualiza el código
usando blip, en vez de
blip 2
que debería ser solamente cambiar el modelo, pero bueno
aquí tenéis el código actualizado
primero, asegúrate de instalar las dependencias necesarias
en web colap, ejecuta la siguiente celda para instalar la biblioteca
stencilflow, transformer y p-low
vale
ya veis que en realidad podéis
meteros a hacer proyectillos así
porque ahora es muy sencillo
con gpt4, vas todo el rato con
rueditas, vas asistido en el proceso
de crearlo
entonces
bueno, es cierto que si no entiendes
lo que está pasando, es más complicado de encontrar
fallos cuando ya a gpt4
le pierdes, pero
eh, eh, ah
eh
nada, nada, abortamos misión
ahora sí, ahora sí, antes ha sido un fallo
vale, lo tenemos entonces
abortamos misión
voy a parar entonces a gpt4
y entonces volvemos aquí a descripción de la imagen
no, a
aquí
vale, esto nos ha actualizado el código
efectivamente, tiene que haber creado
vale, nos crea estas clases
describeImage
y blip2Question
nos está creando estos dos métodos
entonces, qué deberíamos de hacer
para actualizar el
nuestro plugin, primero
el main.py, vamos a modificar la lógica
modificada
vale, le falta el import de
json
vale, entonces no debería haber
problema
qué te pasa a ti, define
askImageQuestion
pero askImageQuestion
te tengo que contar que esto va
con una llamada que no hemos probado
vale, vamos a hacer primero la prueba
de que la API funciona bien
vamos para acá
eh, creo que esto es
igual
esto lo cambiamos
y lo único es que le vamos a pasar un parámetro ahora
que creo que era question
que sería como decirle
que hay en la imagen
a ver si esto funciona
no sé si
no
vale
pa pa pa pa pa pa
a ver cómo lo tenemos definido en colab
question
askImageQuestion
mmm
estamos llamando el
no, claro
esto debería ser el endpoint de
pa pa pa pa
blip2
y blip2Question
vale vale vale
blip2Question
vale
no se proporcionó ninguna
pregunta, vale
esto es muy fácil todavía
como siempre
a mi amigo le voy a preguntar
cómo
podría hacer
una llamada
a
que pregunte
a una imagen
cuál es el estilo
del personaje
vale, esto nos va a devolver
directamente el comando ejecutar
blip2Question
vale
vale
y
completo de la borralla
vale
y es exactamente
vale, vale, vale, vale
aquí estaréis descubriendo
que hace mucho que no me pongo a hacer
cosas de este tipo
y se nota
y por eso gpt4 se vuelve mi amigo
en este tipo de cosas
vale
y la borralla de la imagen la hemos perdido
vale, la cojo por aquí
déjame que cojo de la imagen
vamos a probar con la de mi imagen
como esta
vale, vale, vale, vale
hostia, vale, a ver si la pillamos
no, ya está
maldito google, por que no me abres
las imágenes como te pido
copiar dirección
de la imagen
vale
vale, vale
ahora se ha pillado la pregunta
me pregunto si le podemos preguntar en español o en inglés
cual es el estilo del personaje
vale
what is the breed
creo que se dice en inglés
of the dog
vale
inglés bulldog y
si le preguntamos en español
porque este ya no es chatgpt
cual es la raza del
bulldog
o sea del perro
esto es el modelo blip al que le estamos
preguntando, bueno en ambos casos lo entiendo
así que funciona bien
vamos a corregir nuestro código
y con esto ya rematamos
estamos aquí
vale
entonces
corrige
la lógica del
endpoint de preguntas
se llamará
a la siguiente api
con este formato
ya con esto lo entenderá todo
vale
cerrado la ventana porque me habéis pedido
que por el tema de los ruidos me estoy muriendo de calor
estoy sudando a males
vale
me vas a hacer todo el código en serio
venga
con esto debería ya de andar
todo correctamente
funcionar
y nos va a dejar una sensación de alegría
y jolgorio donde hemos creado en cuestión
de una hora pues una api
o sea
hemos creado por una parte, estaba creado
el servicio de blip2 pero si hemos creado
una nueva
funcionalidad para poder hacer preguntas
y hemos creado un plugin de chatgpt
que puede usar esa api
bueno hemos creado la api de teaser
y cuando digo hemos me refiero a
yo, vosotros no habéis hecho nada
también lo digo
se traba y lo envían completo
no, yo creo que lo va a terminar
yo creo que hoy gpt4 se esta aportando
vale
ejecuta ubicore
vale, vamos a ver
tiene pinta de que ahora si esta llamando lo que tiene que llamar
bla bla bla
vale, entonces nos venimos para acá
metemos esto por aquí
se queja otra vez de jason porque no lo estamos poniendo nunca
listo listo listo
esto parece que está
lo único que hay que actualizar
es la descripción del manifest
porque claro plugin que para la URL de una imagen
tiene una descripción detallada, eso es cierto
además
la api te permitirá
hacer
una pregunta
en cualquier lenguaje
y la traducirá
no
no, será una pregunta en inglés
y así chatgpt entenderá que lo tiene que traducir
una pregunta en inglés
para
sobre el contenido de una imagen
vale, entonces vamos a ver si con esto
la cosa ya chuta
yo creo que en principio esta todo
yo creo que con esto
debería de funcionar
vamos a darle, voy a reiniciar
por si acaso
creo que no hay que hacer nada dentro de chatgpt
esto no lo he probado el actualizar un plugin
pero creo que no cambia nada
porque yo creo que siempre esta analizando
la api spec y todo esto
entonces vamos a esperar
que se arranque todo esto
y probamos
vale
podría ser que fuera
por el esquema version
a lo mejor
que a lo mejor pudiera detectar que ha habido una actualización
vamos a probar
tenemos un par de minutillos mas
y cerramos
vale, esto esta ejecutando
entonces si yo me vengo para que le digo
a ver una imagen
vamos con la imagen del perrete
la imagen es esta
tenemos aquí esta imagen
copiar dirección de la imagen
hey
que hay en esta imagen
vamos a ver
vamos a ver que esta llamando
es super curioso como chatgpt
cuando tiene que describir
un url o algo largo
por temas del tokenizador
todo esto va muy lento
va como muy paso a paso
frente a que si tuviera que ser una
una
una
una
es una
una frase larga
a ver, le ha pasado
la url
y ha fallado
lo siento, parece que hubo un error al intentar obtener una descripción de imagen
esto podría deberse a que la url de imagen
era un problema técnico con el servicio de descripción de imágenes
que pueda haber fallado
que pueda haber fallado
en este caso
la url esta bien, no?
bueno, no se si esto aquí
le puede estar confundiendo
vamos a probar con otra imagen
de las que hemos visto antes
vamos a probar con otra imagen
últimamente google imágenes
como que me da bastantes errores
a la hora de copiar urls
vale
vamos a ver
le podría haber quitado esto
por si acaso
vale
no
que esta pasando, hemos perdido a nuestro
blip2, no
ha muerto por el camino, que esta pasando
si tu antes funcionabas
tu antes volabas
si paso la imagen por aquí
le quitamos esto
debería haberlo dejado antes
si es que si estaba funcionando
para que nos hemos metido a hacer
va a ser mas complejo lo que ya funcionaba
si esta funcionando
vale entonces
lo que tiene que estar mal es la lógica
posiblemente que nos haya planteado ahora
chat gpt
del código
porque a ver esto que esta aquí
esto ha cambiado
4972
a lo mejor ha cambiado
si se ha cambiado
maldita sea
no me había dado cuenta de que esto había cambiado
si cuando le hemos pedido a chat gpt
que repitiera el código
estaba basándose en la url anterior
ese era el problema que teníamos
entonces esta si estaba correcta pero la otra no estaba correcta
vale vale vale vale
todo correcto
vale entonces vamos a comprobar si no hemos reiniciado esto
y ahora le pedimos que lo haga
va a funcionar
pero tenéis cuenta que esta no es la forma correcta de hacer todo esto
pero hemos tenido que improvisar
rápidamente un servicio online de descripción
de imágenes
no
vamos a reiniciar entonces aquí
el esto
hombre me quiero ir con el ejemplo funcionando al menos
vale esto ya es un reto
personal
bueno
comentadme chicos
que tal estáis
os esta gustando el directillo
esta pareciendo interesante
vais a programar plugins
vais a programar plugins vosotros
tenéis alguna idea de plugins que queráis ejecutar
vale esto ya esta corriendo asi
venga ultimo intento cruzamos los dedos
vale
ahi lo tenemos
esta escribiendo la peticion
vale venga blip portate bien
bien ahora si
en la imagen se ve un perro pequeño que esta comiendo de dos tazones
vale no me acuerdo ni cual era la imagen
pero si si hay un perro
comiendo de dos tazones
sabes cual era la imagen que la tengo por aqui
vale esta comiendo de
bueno si de dos tazones efectivamente
aqui hay otro tazon que ni me habia fijado
vamos a preguntarle que esta escrito
en el tazon del que esta comiendo el perro
vamos a ver si funciona
veo que hay algo escrito
en el tazon del que come
el perro
que es
vale entonces ahora si
deberia estar utilizando la funcionalidad de
preguntar a la imagen
no se yo se lo esta haciendo bien
la image
si vale ha pillado la pregunta
la esta haciendo en español hubiera molado
que la hiciera en ingles la verdad
por lo que hemos comentado antes
de que el modelo blip
y la respuesta
que esta escrito
esto ha sido un problema del propio modelo
blip
osea a menos que haya un fallo en la logica
y que devuelva la respuesta y tal
creo que blip dos nos ha devuelto
bueno que ni siquiera blip dos
blip uno nos ha devuelto la misma pregunta como respuesta
voy a decirle
podrias preguntarlo
en ingles
no me extrañaria que hubiera un fallo en la logica
y que a lo mejor no se este llamando bien
al modelo y la respuesta que se esta dando
es la pregunta y tal
podrias ser pero bueno vamos a confirmar que no es por el tema de
ahora lo esta mandando en ingles
vale, era por el idioma
entonces hay que decirle
de alguna forma esto al plugin
a ver si puedo actualizar el
manifest rapidamente
plugin que para la url
ta ta ta ta, ademas la blip te
permitirá hacer una pregunta en ingles sobre
hacer una pregunta sobre
la imagen
todas
las preguntas deberan
de ser
traducidas
al ingles
vale, deberan de ser traducidas al ingles
vale y ademas de esto
estaba pensando que molaria decirle plugin
que para la url de una imagen
le voy a poner primero
la visualiza
y luego obtiene
vale porque yo creo que con la url
chatgpt puede ser capaz de ponernos en el chat
la propia imagen y yo creo que eso quedaria como
un resultado bastante chulo
entonces dejadme un momento que lo desactive
y lo active por si esto actualizara el manifest
de alguna forma
vamos a ir a la plugin store de hecho
vamos a darle a uninstall
vamos a irnos a nuestro plugin
vamos a copiarnos la url
vale
esto deberia funcionar ahora
install
developer your own
vamos a volver a instalar
con el manifest actualizado
install for me, continuar
install plugin
y de nuevo, vamos a repetir con la misma imagen
le voy a quitar lo del crop
quiero ver la imagen entera
que era esta
por eso ha sacado lo de los 2 balls, no es que fuera super dotado
sino que ha visto la imagen real
y ha ignorado el parametro
entonces le voy a decir
que hay en esta imagen
vamos a ver si primero la visualiza, seria chulo
o bueno, que haga la peticion al plugin
pero que en la descripcion de la respuesta
no diga en esta imagen que ves aquí
tal tal tal
en esta imagen
en esta imagen hay un perro pequeño de pie
junto a todo esto en el metalic
eeeeh, cobarde
vale, no lo hace, de alguna forma
esto no lo he probado, no sabria exactamente
que tan largo puede ser
la descripcion para el modelo
cuanto lo podriamos forzar para que haga
a ver, le voy a decir, podrias
visualizar la imagen
eeeeh
eeeeh
eeeeh
eeeeh
este icono que
que acaba de pasar, que esta pasando
hola
gpt5 eres tu
ese icono
no me lo esperaba
vamos a hacer una pregunta de la imagen entonces
podrias decirme
que hay
escrito en el ball
vamos a ver si este lo hace
vale
llama blip
manda la url
dios
en esta zona hay una advertencia
aunque no se especifica el contenido exacto
de la advertencia, bueno pues ahi lo veis
y me estas pidiendo, y va a ser la ultima que probemos
buscar como una grafica
estan oyendo como muchos perros de repente
vale
ya esta solucionado
una grafica
vamos a buscar por ejemplo
esta grafica de aqui
una grafica que tenga algún dato real
estaria chulo
vale
vale vamos a pasarle esta grafica
cutre
donde las haya
bueno es una grafica de ejemplo
bueno
venga ahi esta
vamos a pasarle esta imagen de una grafica
vamos a ver si lo consigue entender
en esta imagen
que ves
vamos a ver
ultimo ejemplo
probamos, cruzamos los dedos
en esta imagen se muestra un grafico
de barras que representa el numero de personas que han sido vacunadas
se lo acaba de inventar eh
se lo acaba de inventar
pero eso es blip el que se lo esta inventando
es una grafica sobre cursos
vale sobre cursos
gente que ha sido vacunada
el grafico tiene barras de diferentes alturas
cada una de las cuales representa una cantidad especifica
de personas vacunadas
puedes decirme
que pone en el
donde esta el subtitulo
vale
en el
title del eje x
estas preguntando quien gano en el sorteo
de la rtx 4090
no lo he comentado todavia
ya el ganador esta avisado
lo hemos hablado por mensaje privado
y estaba pendiente de confirmar el
con envidia que todos los requisitos
para ser ganador estuvieran correctos
y ya hoy me ha pasado foto de que ya ha recibido
una tarjeta grafica en su casa
asi que si pone un tweet pues anunciare tal persona ha sido el ganador
y lo mostrare
pero si por lo que sea vosotros ninguno
tiene una tarjeta grafica en casa pues sera porque
no habéis ganado
ya luego enseñare
a ver si nos manda la imagen y la quiere compartir
porque es muy chulo cuando llegan las tarjetas
y las enseñan ahi en casa todos contentos
mola bastante
bueno el titulo
eje x es el numero de personas que han muerto
en el ultimo año el numero de personas que han fallecido en el ultimo año
se lo esta inventando todo
es falso todo esto es falso
me pregunto
vale vale la respuesta se la ha inventado blip
la ha alucinado blip
porque a veces con esto con la propia url
se puede inventar el resultado
pero bueno no no ha sido blip
pues chicos chicas aqui esta este es el directo
que tenia pensado para hablando de plugins
hoy espero que os haya gustado
espero que ya conozcáis
un poco mas sobre toda esta
sobre esta tecnologia
y lo potente que es
creo que se ha visto bien
todo lo que representan los plugins
ahora mismo que es mucho potencial
pero todavia le fallan cosas todavia
no es perfecto en este caso el ultimo
ejemplo que hemos visto no falla
y es importante decirlo no es que este fallando el plugin
chat gpt esta haciendo un excelente trabajo
lo que esta fallando blip
el modelo blip vale que es el que yo decido
usar como ejemplo
eso es lo que esta fallando si las descripciones de las imagenes
son buenas todo esto funcionaria vale aqui
esto hay que comentarlo pero si lo hemos visto antes
cuando lo hemos probado al principio
que ciertamente
no
para todas las peticiones
los plugins notaban la respuesta correcta
aun asi es impresionante y esto todavia
esta en alfa tenemos que ver
como se va desarrollando esto como mejorara
cuando lleguen todos los aspectos visuales
a chat gpt cuando se siga
ampliando el rango de multimodalidad cuando
modelos como whisper o futuras versiones
también se vayan añadiendo
cuando podamos crear tambien
imagenes dentro del propio chat
hay un monton de posibilidades que todavia se pueden
ampliar dentro de chat gpt cuando la ventana de contexto
se haga mas grande
y cuando yo este recuperado y este bien con
mi voz perfecta pues seguiremos con mas contenidos
aqui en el canal con mas videos con mas
directos y si os ha gustado dejad un buen
like ahi abajo para saber que
este contenido os gusta
chicos chicas pues nada mas
un besito muy fuerte
el video esta semana va a estar muy chulo
y seguramente habra directo la semana que viene
donde estemos jugando con mucho de lo que
veamos en el video esta semana que esta relacionado
os adelanto con agentes
auto gpt llamas
y cosas por el estilo
un beso
nos vemos chau chau
chau chau