logo

midulive


Transcribed podcasts: 605
Time transcribed: 13d 3h 7m 36s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Este vídeo está patrocinado por Elsa Speak, la mejor aplicación para aprender inglés y mejorar tu nivel.
Detecta errores de pronunciación y te ayuda a corregirlos.
Y ahora, si eres usuario Premium, tienes acceso a certificados, libros e incluso cursos de la Universidad de Oxford.
Te dejo los enlaces con una prueba gratuita de 7 días y un descuento exclusivo para las suscripciones Premium.
Así que ya sabes, a mejorar tu inglés.
ChagPT el otro día, no sé si te lo viste, no sé si lo notaste, no sé si lo sufriste.
ChagPT se volvió loco.
ChagPT se volvió loco. Durante unas horas se volvió loco. Tarumba. Se le fue la olla.
Tú le escribías y te decía cosas súper raras. O sea, parecía que no te entendía.
¿Ves? ¿Estás teniendo un infarto cerebral o qué te pasa?
¿Ves? Intentabas hablar y no hablaba bien.
O, ¿ves? Decía, los cientos, que no sé. ¿Ves? No hablaba bien.
Es como que mezclaba español con inglés.
Entonces, luego le preguntabas algo y se ponía a cantar.
Se le fue la olla. O sea, se le fue pero totalmente.
O aquí, mira. O sea, se le fue totalmente la cabeza.
Se le fue la cabeza.
Lo comentaron, ¿no? Esto de que ya lo habían arreglado y esto.
Pero ¿os imagináis que de repente, mirad cómo está la cosa?
Mira, OpenAI. Respuestas no esperadas.
Y que están monitorizando la situación.
Y bueno, ya os imagináis la situación.
Básicamente. Pero es que es esto.
Imagínate. Imagínate cómo se le fue la olla.
Hay que tener un poquito de cuidado con este tipo de cosas.
Claro, imaginaos el Choto. Lo que dice el Choto.
Dice, debe haber sido genial en los servicios automáticos que usaba la API de Chagepet en ese momento.
Pero imagínate que fuese un tema médico.
¿Sabes? Que tú estás ahí o de apoyo a gente con depresión.
Cosas así, ¿no?
No solo Chagepet se le fue la olla, sino que también hay problemas para Gemini, o Gemini, como le queráis llamar.
Y es que cuando le pedían imágenes, ha sido bastante polémico el hecho de que le dices,
Gemini, muéstrame la imagen de los CEOs de Google.
Y los hace como todos mujeres.
Todos mujeres.
Pero he visto un montón en el que no solo pasa esto, sino que también lo hace, por ejemplo, con gente...
O sea, no ponen personas blancas.
No ponen personas blancas.
Tú le dices, hazme cuatro mujeres.
Y las cuatro son mujeres de Betasar de la India, no sé qué, ¿no?
Cosas así.
Hay gente que decía que era normal, porque al final hay gente que existe, que puede ser.
Y luego, por otro lado, pues hay gente que dice que es que Gemini está de alguna forma configurado para que tenga algún tipo de preferencias.
De hecho, si le pedías imágenes, por ejemplo, de quiero hombres blancos fuertes, no te hacía la imagen, te decía no puedo hacer esta imagen.
Pero si decías hombres de color que sean fuertes, sí que lo hacía, ¿sabes?
Es súper raro.
Y, de hecho, Google lo ha confirmado, que están trabajando justamente en ello, ¿ves?
Que es bastante...
Lo deshabilitaron completamente.
Sí, o sea, como que lo han quitado ya totalmente.
Lo han tenido que quitar por aquí, ¿no?
O sea, ya aquí, aquí todo es raro.
Es que, claro, le pedías imágenes históricas.
Por ejemplo, hazme una imagen de George Washington.
Y te hacía George Washington como si fuese afroamericano, ¿sabes?
Cosas así.
Era un poco raro.
Y justamente Google ya ha confirmado que, sobre todo, imágenes históricas lo estaban haciendo.
Que estaban haciendo esto.
Estamos trabajando en esto para mejorar esto porque parece que la generación de imágenes no está generando todo tipo de personas.
Y es una buena...
Y es generalmente una cosa buena porque hay gente en todo el mundo, pero no están encajando exactamente bien.
Así que, ya veis que la inteligencia artificial, claro, depende también un poco de cómo la has entrenado.
Y cuáles son los prompts que le estás poniendo.
Entonces, ya veis que entre que se pueden volver locas y que luego depende cómo las has entrenado.
Pues puede aparecer, te pueden salir de una forma u otra, pues hay que tener un poquito de cuidado.
Sí, no, es una...
Claro que está bien que sea inclusiva.
Obviamente está súper bien.
Pero, claro, a veces, a lo mejor de ser tan inclusiva, lo que pasa es que deja justamente fuera a otra parte, ¿no?
La idea es que nadie se quede fuera.
Esa sería un poco la idea.
Porque, claro, si es demasiado inclusivo y le pides imágenes históricas y se inventan etnias, razas y cosas así, es un poco extraño, ¿no?
Quitarle el lugar a otro no es inclusión.
No, no, claro, pero lo que están intentando es que sea inclusiva.
Y al final lo que están haciendo es que es exclusiva, obviamente.
Pero lo que intentan entiendo, lo que han intentado, digo yo, es la inclusividad.
Quiero pensar que no ha hecho directamente, no ha hecho directamente, no.
Y quiero que deje fuera a la gente así.
No, hombre, no, obviamente.
Pero sí que es verdad que, ostras, esto muchas veces lo que te hace es pensar que quede cuidado.
Hay que tener con este tipo de cosas porque al final, según como las están enseñando.
Hola, Midu, tenía intención de hacer portfolio con Astro para un freelancer no técnico.
Sin embargo, veo difícil que luego él pueda hacer pequeñas ediciones por su cuenta.
No, ¿por qué?
Por ejemplo, actualizar su experiencia laboral.
¿Cómo lo enfocarías?
Claro, lo enfocaría utilizando, pues, por ejemplo, Airtable, por ejemplo.
Pero podrías utilizar Airtable.
Utilizas Airtable porque me imagino que un JSON es demasiado para el freelancer no técnico, ¿no?
Puedes utilizar un producto como Airtable, algún CMS que esté en el cloud.
Y esto al final lo que tiene es una API.
Esta persona, él podría entrar en el panel de control, ya sea de Airtable.
Podrías utilizar hasta WordPress porque también tienes una API con WordPress.
Podrías utilizar cualquiera de estos, GraphQL, cualquier gel de CMS que queráis.
Strapi, es que Strapi ya me parece un poquito demasiado complicado porque puedes utilizar uno de estos que sea justamente en el cloud.
En Strapi al final lo tienes que hospedar tú y todo.
No sé si han sacado ya el cloud de Strapi, lo que estaban trabajando en ello.
Ah, mira, pues sí.
Ah, pues ya lo han hecho.
Vale, vale, pues me callo.
Es que justamente antes no estaba.
¿Ves?
Que pone new.
Eso es porque justo lo han metido aquí.
Vale, pues mira.
Pues si no te importa pagar 29 dólares, al menos en este creo que tienes un free tier.
Que seguramente con esto tendrás suficiente, con este free tier.
Airtable la verdad es que está bastante chulo.
A mí me gusta mucho, pero es verdad que el free tier, la capa gratuita está bien, pero no es muy bestia.
Y esto al final, él lo que haría, o ella, no sé, el freelancer, cambiaría ahí el contenido.
También podrías utilizar Notion, por ejemplo.
Notion.
Notion tiene una API, no está mal la capa gratuita, pues también lo podrías utilizar.
Cambiaría aquí la información y podrías hacer un webhook que cada vez que cambie aquí la información, una de dos.
O haces que Astro sea estático y se despliegue cada vez que se hace un cambio aquí.
O podrías hacer que tuviese un pequeño server detrás que recupera la información de la API y ya estaría.
O que se despliegue cada cinco minutos, también lo podrías hacer, no habría ningún problema.
O cada 30 minutos, o cada hora, lo que sea.
Hazlo.
Pues igual lo podemos hacer, me parece un buen proyectito, la verdad.
Que recupere el JSON, claro, así podría recuperar el JSON y ya está.
¿Crees que habrá un futuro, un salto de la inteligencia artificial ahora que hay nuevas, que IaaS entrenando IaaS?
O eso no pasa a nadie, coña.
Todo va a pasar, Lexio.
Todo va a pasar, todo.
Todo lo que pensamos que no va a pasar, va a pasar.
¿Que va a haber IaaS entrenando IaaS?
Yo creo que las de ahora no, las de ahora no, pero igual en el futuro sí que lo vemos.
Las de ahora no, porque creo que puede pasar, y de hecho muchas veces se ve ya que justamente a la inteligencia artificial lo que le pasa es que miente bastante.
O sea, no se da cuenta y te miente en la cara.
El otro día, no sé si os expliqué esto, pero el otro día, no me acuerdo si publicó una cosa en LinkedIn o en...
En LinkedIn creo que fue.
Publicó una cosa en LinkedIn y un chico, con buena intención, me corrigió lo que yo había puesto,
diciéndome que no era correcto, porque le había preguntado a ChagPT y que lo que devolvía era tal.
Y que eso no estaba bien, lo que yo había puesto y me corregía, no sé qué, no sé cuánto.
Y yo le decía, yo creo que lo que hay que corregir es a ChagPT.
O sea, también es verdad que utilizar de fuente a ChagPT es un poco peligroso, porque se está inventando la respuesta.
De hecho, si pruebas el código y lo ejecutas, verás que básicamente es como te estoy diciendo.
O sea, no te estoy mintiendo para nada.
Y entonces me dijo, ostras, tienes razón, fallo mío, he aprendido la lección, no sé qué, no sé cuánto.
Porque le dije, lo que es peligroso es corregir a alguien en base a la opinión de una inteligencia artificial
que vete a saber de dónde he aprendido eso.
Y eso muchas veces es el problema.
Que la inteligencia artificial no es tan buena discriminando la verdad de la mentira.
O sea, por eso muchas veces hay que hacer un curado de esa información.
Y entonces, por este tipo de cosas, justamente, que una IA entre en una IA es como ahora, a día de hoy.
Yo creo que lo veremos, pero es complicadete por eso.
Porque puede entrar en un loop infinito de invenciones e imaginaciones que pueda ser peligroso.
Que va a pasar, claro que va a pasar.
Porque mucho contenido que se va a generar a día de hoy va a estar generado con inteligencia artificial
que en el futuro la IA se va a poner a estudiar de ese contenido.
Así que...