logo

midulive


Transcribed podcasts: 605
Time transcribed: 13d 15h 9m 33s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

La inteligencia artificial, amigos. Y es que, a ver, el tema de la inteligencia artificial nos está ayudando mucho, pero hay voces, hay gente, hay personas que están preocupadas del impacto que tiene. Y yo he dicho, a ver, ¿y si me busco a dos personas súper expertas que sepan del tema, más que yo, y les pregunto lo que todo el mundo se está preguntando?
Así que, pues nada, he ido y me he buscado Fernando Rodríguez de KeepCoding, que este hombre sabe un montón de inteligencia artificial, de Machine Learning, y que seguro que nos va a solucionar un montón de cosas y que le vamos a dar la bienvenida ahora. Así que, hola, Fernando, ¿cómo estás?
Hola, Miguel Ángel. Muy bien, ahora mucho mejor. Muchísimas gracias por invitarme. Es un placer y un honor.
Gracias a ti por pasarte. Muchísimas gracias. Y también he dicho, claro, pero también otra persona que sepa mucho y he dicho, madre mía, pero si tengo a Nerea Luis, que es que es una crack, responsable encima de inteligencia artificial en Singular.
Pues madre mía, me voy a traer, sí, una persona que ha salido en la tele más que mucha gente de la que creéis, porque Nerea es muy crack. Hola, Nerea, bienvenida.
¿Qué tal, hola? Un placer estar aquí, como siempre, en Viu.
Nada, súper encantado de teneros aquí a los dos en esta mesa redonda para hablar un poquito de inteligencia artificial y programación.
Porque, a ver, vamos a saco. ¿Va la inteligencia artificial a acabar con los programadores?
A ver, Nerea. A ver, Nerea, tú primero. Es cara.
Yo vengo a tranquilizar un poco. A ver, es verdad que el momento en el que estamos, yo creo que a estas alturas, que si ya del año a poca gente le sorprenderá todo este boom que ha habido de echar GPT y demás,
y hay un tema que es que si sabemos generar texto, es mucho más fácil generar código, simplemente porque los dos de código son menos ambiguos, ¿vale?
Con lo cual, es lógico que veamos un avance muy rápido en esa resolución, digamos, de bugs, en esa generación pura de funciones y de cosas que le podemos pedir a un generador de este estilo.
Pero de ahí a que vaya, digamos, a reemplazar, ¿no? Que es lo que a veces me da un poco de miedo porque pensamos en, jolín, ¿esto va a llegar a reemplazar a un programador?
No lo creo. Al menos no completamente.
Creo que hay que separar lo que son las pequeñas tareas que hacemos todos en programación, desde que aprendemos hasta que estamos en empresa, ¿no?
O, bueno, otro tipo de organización. Y luego entender esa parte conceptual al final que aportas como programador alrededor de la lógica, del propio razonamiento del código, de todas las buenas prácticas.
Es decir, para mí es más el tener un asistente, ¿no? Creo que es una palabra quizá más apropiada o ese copilot, digamos, ese copiloto que se está ahora popularizando mucho, ¿no?
Como esa figura. Creo que vamos por ahí. O sea, tener una especie de asistente al que vamos a ser capaces de preguntarle muchísimas cosas y ser mucho más ágiles en la resolución de dudas
y en la generación de código muy repetitivo básico de conectores, de APIs y así. Pero luego habrá una parte que es de arquitectura, de puro, digamos, desarrollo conceptual también que va a ser muy difícil todavía que lleguemos a ver algo completamente autónomo ahí.
Fernando.
A ver, yo estoy de acuerdo con lo que dice Nerea. Es cierto que periódicamente salen alguna tecnología, ¿vale? Y por alguna razón un porcentaje muy alto de la población reacciona, una especie de salto de alegría que aquí se acaban los programadores.
Fue hace siglos con los lenguajes 4G, de cuarta generación. Luego no me acuerdo qué más. Ahora es ChatGPT. A mí lo único que me preocupa como programador es de dónde viene esta enquina casi universal a los programadores.
Todo Dios está esperando el día que puedas entrar en el metro y las escaleras estén llenas de programadores estirando la mano pidiendo limosna. Vale, habremos creado algún que otro formulario web que es imposible rellenar, pero yo creo que no es para tanto.
Nos tienen ganas, ¿no, Fernando?
Nos tienen ganas, por alguna razón. Yo me acuerdo cuando, hace años, cuando salió Uber y estaba hablando con el CEO de una empresa en la que habíamos invertido y le pregunté sobre qué opinaba de lo que estaba ocurriendo con Uber en concreto en España, en Silicon Valley.
La zona de la Bahía de San Francisco estaba ya generalizada, se utilizaba muchísimo. En otras zonas de Estados Unidos también. Y en España se le estaba empezando a poner trabas legales.
Y le pregunté sobre qué opinaba. Dice que el éxito está asegurado. Le dije, ¿pero por qué? Porque por alguna razón hay una enquina universal contra los taxistas.
Entonces todo el mundo va a querer ir a buscar algo que a los taxistas les cabrea. Nos parece que ocurre lo mismo con los programadores.
Ahora bien, dicho esto, yo creo que no hay motivo para preocupación. No va a exterminar ni a los juniors ni a los seniors. No va a acabar con los malos programadores, que también hay bastantes.
Y hoy por suerte también conseguimos trabajo siendo incompetentes, relativamente incompetentes en nuestro trabajo.
No creo que nos vaya a afectar en exceso. Es simplemente una herramienta que por mi parte es muy bienvenida.
Yo creo que nos va a aliviar muchas tareas que son aburridas, que no las quieres hacer.
Tanto para el que está empezando, aporta ventajas enormes. Estás empezando a aprender a programar.
Ahora mismo, de las primeras cosas que tienes que hacer es crearte una cuenta en OpenAI.
Ahora explico el por qué. Y si eres ya senior, pues también necesitas utilizar este tipo de herramientas.
Yo, por ejemplo, dentro de KeepCoding, las clases que doy ahora mismo son de primer nivel.
Es decir, la gente que no tiene ni idea de programación, primero se tira un mes conmigo.
Y una de las primeras cosas que le digo, oye, créate una cuenta en OpenAI.
¿Por qué? Porque para ti es un profesor particular que te va a enseñar, te va a permitir aprender muchísimo más rápido.
Puedes resolver dudas de una forma muchísimo más rápida.
Entonces, una de las primeras cosas que les enseñamos son conceptos básicos de lo que llaman ahora Prompt Engineering,
que creo que es un nombre demasiado chachi para lo que es, pero en fin, es lo que hay.
Y aprender a usarlo como novato. De hecho, incluso pasado, no, el lunes, vemos ya la primera beta de un bot de Discord
que estaría disponible para todos los alumnos. Empieza a interactuar con esto de inmediato, resuelve tus dudas tú solo.
Luego, que eres senior. Yo lo estoy utilizando, lo de senior es por las canas.
Lo estoy utilizando desde hace meses, tanto Copilot de GitHub como ChatGPT.
Y son herramientas fantásticas para crear contenido, como tengo que hacer yo, para cursos y demás.
Y para programación también. Lo único es que ciertas herramientas como Copilot de GitHub, yo creo que es algo que solo los seniors,
los que tienen ya cierta experiencia, deberían de utilizar. Porque los errores que comete, que los comete, son muy sutiles.
Y como principiante te pararías un batacazo. Pero en general es una herramienta fantástica, es una noticia muy bienvenida.
Porque la inteligencia, ya sea artificial o natural, siempre es bienvenida. A mí lo que me aterroriza, y lo he hecho siempre, es la estupidez natural.
Eso sí, nos va a meter en líos. Pero la inteligencia artificial en absoluto.
Nerea, aprovechando que justamente estás como responsable de inteligencia artificial en singular, pues me gustaría que comentaras
qué usos dentro del mundo de la programación, inteligencia artificial, tanto para bien y para mal, ¿no?
A lo mejor cosas que has visto de, ostras, pues aquí nos dimos cuenta que o no funcionaba bien, o hemos decidido no utilizarlo.
O todo lo contrario, que digas, aquí lo hemos utilizado y nos ha servido un montón, no sé, para ver cómo lo habéis encajado.
Tengo algún caso. Es verdad que hay bastante gente en la empresa que se ha animado a utilizar este tipo de sistemas.
Yo sobre todo lo recomiendo para tanto, un poco como decía Fernando, el momento tanto de junior como de senior creo que tiene dos matices distintos.
El junior es quizá más aprendizaje y ahí puedes combinar el usar, por ejemplo, un GitHub Copilot, pero tener también al lado un chat GPT al que le puedes preguntar.
Oye, o a este ahora Code Interpreter, ¿no? Que le han cambiado de nombre, creo, ahora una cosa así.
O dúbete ya y yo qué sé, que ahora hay un montón de servicios.
Pero tener esa facilidad sobre todo de preguntar, oye, ¿cuál es el bug? O explícame por qué, ¿no?
O sea, el tener todo el rato ese feedback del código, ¿no?
De, oye, explícame qué hace esta pieza.
O sea, creo que al junior le ayuda mucho y al senior quizá le ayuda a pensar de una forma más rápida o de otra manera.
O sea, ya tiene también como sus propios mecanismos.
Tengo un caso muy concreto donde nos ayuda un montón y es en un proyecto dentro de la inteligencia artificial.
Claro, trabajamos también con librerías, digamos, de cierto modo muy específicas, ¿no?
De modelos y demás.
Y hay una parte también que es el hasta dónde llegas, ¿no? En tu conocimiento.
Pues, por ejemplo, con el procesamiento de imágenes.
Y ahí, por ejemplo, lo hemos utilizado un montón para resolver dudas alrededor de, por ejemplo,
figuras tipo Machine Learning Engineers que igual tienen un conocimiento muy heavy en lo que es el modelo
y un poco lo que hay alrededor, ¿no? De cómo se interactuó con el modelo o piezas de API y tal.
Pero igual no tienen tanto conocimiento sobre, yo que sé, en algún fallo que haya de Python que sea una cosa pura de backend, por ejemplo, ¿no?
O algún policy que tengas que tener como implementado en algún CloudFormation o en algún sitio donde quieras desplegar tu sistema, ¿no?
El tener esta herramienta te hace como filtrar muy rápido el, oye, ¿dónde puede estar el error, no?
¿Qué alternativa me das?
Es un poco, yo lo veo como el proceso que hacíamos todos con, o que hacemos, ¿no?
Con Stack Overflow y otro tipo de foros.
Pero es como el ahorrarte quizá, el tener que ir como, ¿sabes?
El momento en el que cambiar la biblioteca por Google, ¿no?
O sea, eso lo veo un poco también como en ese momento.
Y lo he visto cómo ha ayudado un montón en sprints de estos que son sobre todo de mucho research, de ir para adelante, para atrás y demás.
Cómo le da agilidad a gente que, claro, que necesita esa atención, ¿no?
Diaria y muchas veces por esa sobrecarga de trabajo igual no llegas a tanto como te gustaría.
Entonces, sí que para mí es un caso de éxito, tal cual.
Y luego creo que tiene un uso como también, nosotros tenemos un tipo de perfiles que son gente, pues, como te digo, o data scientists que igual tienen un background muy fuerte en analítica y modelos,
pero igual en código no tanto, sobre todo pensando en llevarte más a producción, ¿no?
O al revés, quiero decir, o lingüistas, por ejemplo, que saben muy bien interpretar y hacerte un flujo de conversación,
pero igual no tienen tanta independencia a la hora de trabajar con código.
Entonces, es muy guay que tengan estas herramientas también para ser más independientes, o sea, para descubrir, ¿no?
Y para darle un poco el miedo a tocar, a tocar y a decir, vale, esto lo pongo aquí, intento entender este trocito de código, tal.
Creo que hay un componente grande de resolución, ya te digo, por un lado de dudas y de cómo optimizar ciertos quizás de código,
a eso es verdad que te pueden ayudar, dándoles el contexto adecuado.
Y luego la parte formativa, o sea, para mí han sido los dos casos de uso prohibido de cerca.
Y luego hay un tercero que, por ejemplo, hemos utilizado mucho para generar datos sintéticos de prueba, ¿no?
Es decir, toda la fase que haces de QA, por ejemplo, en un modelo o alrededor, quiero decir, de un desarrollo de software,
pues los típicos JSON, yo que sé que quieras hacer pruebas, ¿no?
De, digamos, distintas formaciones, valores más altos, más bajos, tal.
Jolín, es que son, o sea, el tener estas herramientas para generar ese tipo de pruebas,
o sea, es que el de meter la gente a todo, que es, de verdad, es brutal.
O sea, que yo ahí sí que animo a todo el mundo a que, sobre todo, que encuentre cuál es, bueno,
la piedra angular donde lo puede meter, ¿no?
En su flujo de trabajo y ya te digo, tanto irse a, igual a modelos más generalistas tipo ChatGPT,
como más específicos tipo Copilot, si son totalmente programadores, es súper útil.
O sea, y hay que utilizarlos el futuro, hay que decir, pero ya es como el presente, ¿no?
O sea, no concibo que en unos años nos plantemos el no usarlos o no se.
Ya no volvemos para atrás, ¿no?
Bueno, Fernando decía antes y voy a aprovechar porque justamente tenemos esto,
que es el anuncio, ¿no?
De que OpenAI, la primera conferencia para desarrolladores, que va a ser el 6 de noviembre del 2023,
que es un poco paradójico, ¿no?
Que mucha gente dice, es que van a matar a los desarrolladores y OpenAI va y hace una conferencia
para desarrolladores, ¿no, Fernando?
Efectivamente.
No va a quitar trabajo ni nada de esto.
Es un error muy frecuente cuando sale alguna herramienta así muy innovadora.
Mucha gente se cree, me va a quitar el trabajo.
No, no te va a quitar tu trabajo, ninguna herramienta.
A ti quien te va a quitar el trabajo es otra persona que sí sabe utilizar esa herramienta.
Entonces, ponte a aprender eso, pero rápidamente.
Hay una película que se llama Figuras Grises o algo así, no me acuerdo el nombre exacto.
Está en Netflix o en Prime, que es de unas mujeres programadoras,
bueno, no eran programadoras, las llamaban calculadoras,
que trabajaban en la NASA haciendo cálculos, ¿vale?
Y contratan a lo largo de este sector, la protagonista,
eran sobre todo un grupo de mujeres negras que se enfrentaban a un racismo
y una opresión así absurda de todo esto hace 50 años o por ahí.
Y era el grupo este de calculadoras.
Y un día se enteran que para más problemas, por si tenían pocos,
acaban de comprar un cacharro en una empresa que se llamaba algo así como IBM,
que iba a hacer esos cálculos muchísimo más rápido.
Y una de estas chicas, la protagonista, ve cómo pasa por un pasillo un armatoste enorme
que es el cacharro este.
Y podría haber pensado, pues por ahí se va mi porvenir.
Y no, lo que hizo fue irse a una biblioteca pública,
donde no la dejaron entrar, hubo que irse a otra,
y encontró un libro de Fortran, porque le habían dicho que era con eso
que se programaba ese cacharro.
Aprendió Fortran, le enseñó hasta a todas sus amigas,
y pasaron a ser absolutamente esenciales en la NASA.
Entonces, yo creo que muchas veces a lo largo de nuestra carrera
vamos a tener ese momento de ver pasar el IBM por el pasillo.
Y tú puedes decidir lo que quieres ver.
Si se te va tu porvenir o tengo que aprender Fortran.
Entonces, es una cuestión de mentalidad.
Excel no le quitó el puesto a ni un solo contable.
Un contable que aprendió Excel, te quitó a ti el trabajo que te negaste a aprenderlo.
Entonces, al contrario, es una oportunidad, una excelente oportunidad,
es una herramienta fantástica, que tiene limitaciones muy claras,
que yo creo que también deberíamos de hablar de eso,
porque toda la gente que no está muy metida en esto,
lo ve y creo que todo el monte es orégano,
o ya algunos parece que se creen que todo el monte es María,
por las cosas que dicen.
Tiene limitaciones muy claras que hace que uno se tranquilice,
que no viene Skynet ni nada por el estilo.
O sea, para empezar, ChatGPT no sabe nada y no entiende nada.
Es algo que hay que meterse en la cabeza y tranquilizar.
Es como lo llamó en un foro donde lo he visto que me pareció brillante,
es un loro estocástico.
Te hace refritos estadísticos de texto.
Bueno, pero sobre esto sí que hay un tema interesante,
y a ver, Nerea, en tu caso, que en Singulara o mejor habéis tenido que batallar con esto,
el tema, lo comentaba alguien, de la privacidad, ¿no?
Alguien decía, por ejemplo, que la gente del CSIC aquí en España,
pues que no lo veían claro justamente por el tema de la privacidad.
Dice, ¿podrías abordar el problema de la falta de privacidad
o la autoría del código al usar IA?
Y hablamos de autoría del código como autoría de cualquier cosa generada
con inteligencia artificial, aunque ya vemos que las imágenes
ya dicen que no tienen ningún tipo de copyright por haber sido generadas, ¿no?
Pero dice, en el CSIC parece que se ven con malos ojos por estos asuntos.
Entonces, yo lo ampliaría incluso esta pregunta también al hecho de
lo que pasó con Samsung, que utilizando echa GPT,
pues es lo que dice Fernando, es un loro.
Pero claro, los loros, si tú le dices un secreto a un loro,
¿sabes? Como decir, no me cae bien mi suegra.
Y el loro, tu suegra, te cae mal.
¿Sabes? Y dice, mierda, loro, maldito.
¿Sabes? Que sí, que no piensa, que repite, pero que es peligroso igual, ¿no?
Así que en este caso, Nerea, un poco cuál es tu idea y si esto se ha impactado realmente,
por ejemplo, en Singular, claro.
Nosotros lo que hemos hecho, y creo que está bien hecho, es en el momento en el que se empezó
a generar mucho ruido sobre estas herramientas, se crearon como, bueno, varios foros ahí de trabajo,
simplemente para que la gente fuese diciendo de forma, vamos, totalmente voluntaria y también
un poco acompañado del flujo de noticias que van saliendo y demás, ¿qué uso le está dando?
¿Qué limitaciones se ve, por ejemplo?
Pues sí que ha habido limitaciones a la hora de decir, oye, ¿está bien, por ejemplo,
que tu empresa, por ejemplo, en tu patch de formación te deje contratar este chat de GPT Plus?
¿O esperamos, por ejemplo, a que salga una versión Enterprise donde lo podamos, digamos,
alojar en una nube o lo que sea, digamos, pero totalmente protegido, ¿no?
Al final es ese plus que estás pagando en una licencia Enterprise.
Entonces, sí que ha habido mucho debate alrededor de eso.
Hasta ahora se ha utilizado todo y lo que se ha instado, sobre todo, a la responsabilidad, ¿no?
Hay una parte que queda muy clara y es que no es lo mismo usar, pues, eso, un guisado
copa y lo definas una extensión, te la pones en tu Visual Studio Code.
Tiene tu contexto, claro, tu contexto es el código, ¿vale?
Puede ser el código de un cliente, pero si al final es para resolver dudas y demás,
tampoco debería ser demasiado problemático, ¿vale?
Creo que hay un tema en entender también cómo se está utilizando, bueno, pues,
todas esas llamadas, ¿no?
Si se está utilizando luego para reentrenar el sistema o no.
Y creo que cada vez vamos a ver más casos, por ejemplo, un ejemplo muy claro es el de
Duete y ahí, ¿no?
Que han anunciado ahora recientemente los de Google.
Viene a cubrir un poco el, oye, sabemos que las empresas quieren un sistema que tú puedas
desplegar en tu nube y que sea, digamos, seguro y que tengas certificaciones ISO, que así
te lo avalan y demás y que no se use ningún tipo de interacción que tú estés teniendo
para luego reentrar en el sistema o ningún tipo de pieza de código.
Pues, es el tipo de cosas que van a empezar a suceder ya, ¿no?
Y ya os digo que ya ha salido algún ejemplo, el último es este.
Y creo que iremos hacia ahí.
O sea, que yo creo que va a ser una cosa que tenía que pasar, tenía que haber un periodo
ahora también de adaptación y se seguirá viendo cómo siguen saliendo, pues, historias
alrededor de la propiedad intelectual.
Pero sí que a nivel de seguridad sí veo que los grandes corporates pensando ahora en
OpenAI, Google, Microsoft, ¿no?
En Meta incluso que están ahí como a la cabeza.
Creo que están haciendo ahí el, bueno, ese papel que se esperaba de ellas, ¿no?
De sacar esas versiones Enterprise.
Ahora bien, creo que lo que vamos a ver también dentro de poco, y es un tema que también hemos
hablado internamente en la compañía, ¿no?
Aquí más en el equipo de indirecciones artificiales, en el momento en el que tú puedas ejecutar
un modelo de estos en tu local, es decir, olvídate de un sistema con un API que tú estás,
digamos, que te están cobrando, ¿no?
Cada vez que tú pasas por ahí y mandas un prompt.
Imagínate que tú puedas ejecutar un llama de estos, pero en tu ordenador, ¿no?
Como ya se está viendo que se empieza a poder.
Imagínate que es suficientemente potente para resolverte ese código del día a día, ¿no?
Claro.
Jolín, o sea, ahí de repente estás creando una pieza de software al uso, ¿no?
Y entonces eso es lo que me parece que es súper interesante.
O sea, el movimiento que hay detrás, fuera de esas líneas Enterprise, hacia esas versiones
open source y que van a ser fácilmente, digamos, instalables, pues como una aplicación más
de tu escritorio, ¿no?
O a través de una extensión, quiero decir, como hemos visto ya con Gopal y lo tengo
una cosa más.
Creo que va por ahí el tema.
Creo que va a haber dos versiones, dos caminos que seguir.
O sea, este tema de licencias y este otro.
Yo entiendo que es algo que todavía se tiene que madurar.
Nosotros no tenemos una postura tampoco todavía oficial, ¿no?
Pero sí que se ha pedido simplemente coherencia y se está analizando cómo es la mejor forma
de que en este caso, pues, Singular provea de esas licencias a la gente.
Por ahora se ha hecho un poco bajo demanda, ¿vale?
Y sobre todo a través de partnerships y demás con estos grandes clouds.
Pues, la verdad que creo que ese es el futuro.
Oye, se decían que se había filtrado una charla o un paper de Google, ¿no?
Que decían que justamente uno de los grandes miedos son los modelos open source que se
pueden ejecutar en local.
Porque, claro, es que eso te quita el negocio.
Gihaco Pilot, si es más lejos, que en este caso es de Microsoft.
Pero, claro, si tú puedes ejecutar Llama 2 y te da un resultado parecido, ya no voy a
decir igual, sino parecido a Gihaco Pilot a 0 euros en tu propia máquina y que no tienes
que pagar nada, va a ser una maravilla.
Y, además, con 100% privacidad porque se queda el local.
O sea, ya, pues, perfecto, ¿no?
Fernando, antes comentabas que le decías a la gente, oye, utiliza HGPT para que te
resuelva las dudas y tal.
Hablando de programación, una cosa que hay una preocupación y viniendo tú de Keep
Coding, que hacéis bootcamps, que la gente está aprendiendo a programar y todo esto,
una cosa que a mí resulta interesante es, un miedo que hay es la idiotización, ¿no?
De la gente, de una cosa que nos ha pasado a veces con algunos dispositivos o tecnologías,
pues, yo qué sé, ¿no?
Que es como el Ancarta, por decir un ejemplo.
Ah, pues, el Ancarta ya no tienes que retener esa información y directamente por la Ancarta.
Y mira que hablo de hace tiempo, ¿no?
Y esto nos pasó luego en la Wikipedia, Google, no sé qué, no sé cuánto, ¿no?
¿Crees que puede ocurrir con la programación el hecho de que nos idioticemos en algún sentido
de decir, bueno, es que esto no tengo que entenderlo muy bien, porque HGPT me lo explica,
ya me lo hace GuiHacoPailo, no tengo que saber cómo recorrer un array de esta forma,
porque total, GuiHacoPailo, le pongo un comentario y me lo hace.
¿Es una preocupación o crees que no se debe preocupar la gente de esto?
No, yo no me preocuparía mucho por eso, porque históricamente los programadores
que se han dejado idiotizar, la selección natural los extermina rápidamente,
o sea, no dura mucho en un trabajo si no entiendes el código que tú perpetras,
ya sacándolo de Stack Overflow, de ChatGPT o de donde sea.
No, no, no creo. Yo creo que es algo que nos quita, libera ancho de banda mental.
Yo lo asimilo un poco como un recolector de basura. Antes, cuando tenías tú que
ocuparte de la gestión de memoria de forma manual, tenías que dedicarle a veces
el 50% de tu ancho de banda mental a no cagarla, porque era muy fácil
y las consecuencias eran tremendas. En el momento que entra esto y funciona bien,
oye, me puedo olvidar de esto y me puedo dedicar a cosas más complejas
y que aporte más valor. Aquí yo creo que es lo mismo. El mal programador pues será eliminado,
como siempre, el mercado lo va a quitar de en medio. Sí que estos cacharros que tenemos por aquí
tienen una tendencia a idiotizarnos que es un poco preocupante, pero yo creo que no tiene nada que ver
con la inteligencia artificial en sí, sino con la dependencia que tenemos
de la constante inyección de dopamina y el scroll de la muerte.
Eso yo creo que sí es preocupante. Yo soy padre, tengo dos niños pequeños, uno preadolescente,
y la verdad es que me preocupa un poco. Eso sí va a provocar idiotización profunda.
Yo lo siento en mí incluso, o sea, ¿quién lee un artículo de un blog hoy en día? Nadie.
Leemos tweets de 147. No, no hay tiempo, no hay tiempo.
Entonces, sí hay una amenaza de idiotización a la especie humana, pero yo creo que no proviene
de la inteligencia artificial. Viene de la mala leche natural de algunos humanos
y empresas que han sido creadas con un modelo de negocio que se basa en eso.
Entonces, no, no creo que los programadores se vayan a idiotizar más de lo que estamos.
No van por ahí los tiros.
Pues estamos en el último minuto y me sabes fatal, porque me encantaría que fuesen tres horas,
porque esto da para que estemos aquí hablando y sobre todo teniéndoos aquí,
que seguro que tenéis un montón de experiencias y tal.
Pero en este último minuto me gustaría pediros como, pues, en un par de frases que en un año,
o sea, si miramos el año pasado, aquí en la MiduCon no existía HGPT.
¿Sabes? En un año ha sido espectacular la evolución.
Entonces, sabiendo que vosotros sí que estáis bastante al día,
me gustaría que grabéis como dos frases, tres frases de esa mirada al año que viene
y que el año que viene la podamos mirar y digamos, oye, pues Fernando y Nerea tenían razón.
O mira, se equivocaron, como la cagaron, no tenían ni idea.
No sé, pero que un mensaje de, ostras, el año que viene, inteligencia artificial, tal.
Empezamos contigo, Nerea.
Un buen compromiso, ¿eh?
Es un compromiso, sí.
Yo creo que en la línea del código y demás,
yo creo que saldrá algún modelo que veremos que se pueda ejecutar en local
y yo creo que será, y seguramente aquí Meta tiene mucho que decir,
lo veremos, pero tiene pinta de que tienen clara la, como la dirección.
Y creo que vamos a ver muchas cosas alrededor de la generación de voz.
Ya se está viendo como hay, digamos, mucho avance alrededor de esto.
Entonces, creo que nos sorprenderemos con la generación de voz
pensando en incluso, bueno, traducciones simultáneas y así con tu propia voz.
Vale. Fernando, a ver tu apuesta.
Venga, pues yo voy a hacer la nota discordante,
que he sido muy optimista hasta ahora y voy a hacer una previsión pesimista, ¿vale?
Y algo que yo creo que no hemos hablado y que es muy importante.
Creo que esos modelos tipo Llama y compañía que tú puedas ejecutar en local
no van a tener éxito, ¿vale?
Porque los modelos centralizados, chat, GPT, VAR, lo que sea,
su rendimiento va a seguir siendo muy, muy alto
y lo van a poner a un precio que nos va a compensar a todos utilizarlo.
Y ese es el gran problema, creo yo, que tienen estas herramientas.
La falta total y absoluta de democracia en el acceso a ello.
Porque en la anterior revolución, que fue la de la web,
cualquier pringado, yo mismo, pues te contabas un sitio web en Geocities,
si no sabes lo que es Geocities, es porque eres joven,
y ya está, ya estabas en internet en igualdad de condiciones.
Hoy no.
¿Quién entrena un modelo de esto?
Necesitas recursos enormes.
Pocos gobiernos, pocas empresas pueden hacerlo.
Incluso ejecutarlo, en la parte de inferencia.
Yo no me acuerdo cuánto era el coste solo de electricidad,
de chat, GPT, lo leí en algún lado.
Era una barbaridad.
O sea, a mí me llega una factura de esas y ese mes no llegó a fin de mes, fijo.
Eran, no sé, millones, no me acuerdo.
Una atrocidad.
Entonces, yo creo que esos modelos locales no van a tener éxito.
Seguiremos dependiendo de uno o dos muy centralizados
y con un exceso de poder en manos de unas pocas empresas.
Y eso sí, nos va a traer problemas.
Ojo.
Bueno, pues hemos acabado con la nota triste del tema.
Bueno, Nerea, muchísimas gracias por haberte pasado.
Te mando un abrazo enorme.
Nerea, muchas gracias por compartir.
Y nada, que cuídate y nos vemos pronto.
Nos vemos, Mido.
Gracias a ti.
Gracias, Nerea.
Un abrazo.
Gracias.
Gracias.
Gracias.