This graph shows how many times the word ______ has been mentioned throughout the history of the program.
Hace ya casi tres años, en un vídeo os dije esto.
Saber programar es lo más parecido que hay a tener poderes.
De verdad lo digo, la magia en el siglo XXI es la tecnología, y aquel que sepa dominarla
y exprimir al máximo sus posibilidades, tiene superpoderes.
¡Toma ya!
En aquel momento estaba transmitiendo una idea que a día de hoy sigo pensando y sintiendo,
y cuya esencia de forma generalizada suele quedar recogida en esta frase del autor Arthur
C.
Clarke, quien dijo,
Cualquier tecnología suficientemente avanzada es indistinguible de la magia.
Una idea que en estos últimos años, con los avances en inteligencia artificial que
hemos visto aquí en el canal, queda más reforzada que nunca.
Porque, me pregunto yo, ¿qué mejor muestra de una tecnología actuando de forma mágica
podemos encontrar que la de poder traer de nuevo a la vida, a aquello que ya el tiempo
dejó atrás?
Hablemos de magia, pero de magia negra.
Dentro de todas las distintas disciplinas mágicas que existen, la necromancia o necromancia
consiste en aquellas actividades de adivinación que se basan entre otras cosas en la invocación
de espíritus.
Y en el contexto de nuestra realidad, en pleno siglo XXI, donde la tecnología ha reemplazado
lo que antes nuestra imaginación llamaba magia, se conoce como necromancia digital
al fenómeno emergente de, haciendo uso de las tecnologías más innovadoras del campo
audiovisual, de traer a la vida a aquellos actores o personajes célebres que ya en el
pasado fallecieron, de traer digitalmente a la vida a los muertos.
Ejemplo de esto podemos encontrar a montones, tanto en el cine como en televisión.
Los hemos visto en sagas como Star Wars, para revivir a la fallecida actriz Carrie Fisher,
o también en Blade Runner 2049, para revivir al personaje de Rachel.
O otro ejemplo también llamativo, el de revivir a la actriz Audrey Hepburn, para hacer un
anuncio de… ¿chocolates?
Claro, esto empieza a mostrarnos lo que sería la cara más positiva y negativa de todo este
fenómeno, porque podemos por ejemplo utilizar la tecnología para revivir y dar un último
homenaje a un actor querido dentro de una saga, como sería el caso de Paul Walker en
su cameo final en Fast and Furious 7.
Pero al mismo tiempo la cosa se vuelve un poco más turbia cuando comprobamos que esta
misma tecnología se puede utilizar para dar vida a Bruce Lee dentro de un comercial de
una bebida alcohólica, lo cual pasa a ser una decisión que en su momento resultó
fuertemente criticada ante la ironía de que Bruce Lee nunca había bebido alcohol.
Claro, ¿hasta qué punto la imagen de una persona puede trascender los valores que
ésta representa?
Dejemos estos interrogantes para el final del video, centrémonos en lo técnico.
Muchos de los ejemplos que os acabo de enseñar y que posiblemente muchos de vosotros también
hayáis visto, se basan en técnicas modernas de efectos especiales de CGI, es decir, se
buscan imágenes de referencia del actor que se quiere revivir y será un equipo de diseñadores
gráficos quienes se van a encargar de generar un modelo tridimensional de la cara del actor
que pueda ser integrado de la manera más natural dentro de la escena grabada.
Para esto se tiene que buscar en sustitución actores con apariencia similar para realizar
la captura de movimiento y conseguir una mejor integración con la iluminación de la escena.
Un trabajo que no siempre acaba por arrojar resultados del todo creíble, ¿tenemos alguna
alternativa mejor?
Correcto, aquí es donde de nuevo entra la inteligencia artificial para hacer que nuestra
realidad cada vez más se parezca a un capítulo sacado de Black Mirror.
Hablemos de los deepfakes.
Porque esculpir digitalmente el rostro de un actor es una opción, requiere tiempo,
trabajo y dinero, pero otra opción sería dejar que la inteligencia artificial pueda
hacer este trabajo automáticamente.
En los últimos años el término deepfake se ha popularizado en nuestra sociedad más
que la tecnología que funciona tras esta, y tiene sentido, al final la repercusión
en positivo pero también en negativo que puede tener una tecnología como esta hace
que el interés de la sociedad esté justificado.
Un deepfake al final no es más que un nombre que se le ha dado al conjunto de técnicas
que hacen uso de las redes neuronales que tanto hemos visto aquí en el canal para realizar
de manera muy ingeniosa esta tarea de sustituir la cara de un sujeto por la de otro.
En concreto se usan autoencoders, redes neuronales que entrenamos para que su tarea sea la siguiente,
tú le das una imagen de entrada y tiene que generar la misma imagen, vale, sí, algo
muy sencillo, pero es que la red tiene que aprender a hacer esto mientras le obligamos
a que la información pase por un cuello de botella muy estrecho donde la información
está muy comprimida, significando esto que en esta parte de aquí la red tiene que aprender
cuáles son los patrones que conforman a la imagen para poder codificarla y en esta parte
de aquí qué patrones son necesarios para decodificarla, haciendo esto la red podrá
aprender cuáles son los patrones que codifican y decodifican a un rostro.
Esto de aquí es el codificador, el encoder y esto de aquí el decodificador, el decoder,
lo interesante es que podemos tener un encoder que haya aprendido a codificar cada una de
las caras que le demos y luego podemos utilizar decoders que hayamos entrenado para cada rostro
en concreto y así obtener el resultado de la cara que queramos falsear.
¿Queremos convertir esta cara en otra persona?
Pues la codificamos con nuestro encoder y la decodificamos con el decoder correcto.
A nivel conceptual, fácil, pero luego la realidad es que realizar un deepfake requiere de muchísimas
horas de dedicación y de trabajo para artesanalmente encontrar todos los parámetros necesarios
para poder hacer resultados que sean realistas y que tengan buena calidad.
Esto no es un juego, nada de esto es un juego.
Por suerte, a día de hoy contamos con herramientas como DeepFaceLab, accesibles a cualquier persona
que quiera aprender a realizar sus propios deepfakes, ya sea de personas vivas o muertas.
Y es que no hace falta hablar de nigromancia digital para sentir cierta inquietud por esta
tecnología.
Me imagino que es lo que podrá sentir cualquier persona pública cuando de repente descubre
que puede ser fácilmente impersonado por cualquier otra persona en internet.
El caso más reciente sería el de la cuenta Deep Tom Cruise en TikTok que acumula millones
de visualizaciones en vídeo donde podemos ver ejemplos de deepfakes de altísima calidad
de alguien tomando la imagen del actor Tom Cruise para hacer lo que realmente quiera.
O a lo mejor es el propio actor Tom Cruise que está vacilando a todo el mundo en TikTok,
no sé, yo ya no entiendo nada.
Y es también con esta tecnología con la que se ha generado uno de los casos más recientes
y comentados de nigromancia digital aplicados a publicidad aquí en España.
Un anuncio de cervezas en el que se muestra cómo la marca ha resucitado la figura de
la cantante Lola Flores para poder dar así un discurso que al final lo que busca es conmover
al espectador.
Bueno, quiero decir, al consumidor.
Si estuviera aquí Lola Flores sería ella, si estuviera aquí Lola Flores nos lo haría
ella.
Hasta que pensando, pensando, pensando, dijimos vamos a revivir a Lola.
Y con esto surgen interrogantes que como sociedad tenemos que empezar a plantearnos y dar respuesta.
Por ejemplo, hasta qué punto es moral el seguir explotando la imagen pública de una
persona que ya ha fallecido solamente para obtener redito y entretenimiento del resto
de la sociedad?
Entiendo que la respuesta más individualista a esto es que dependerá un poco de la sesión
de derechos que cada persona quiera realizar a futuro de la imagen pública que representa.
Significa esto que las personas empezaremos a firmar contratos de sesión de derechos
a 200 y 300 años vistas.
Cómo se regula todo esto?
A ver, esto tampoco es algo tan novedoso.
En industria del entretenimiento, donde términos como DELEPS existe, que es una abreviación
de los términos disease celebrity, celebridad fallecida, hace referencia a estas celebridades
que aún habiendo fallecido siguen generando sustanciales ingresos post-mortem.
Y es que al final para llenar un concierto solo hace falta de unos cuantos proyectores
y una pantalla para poder crear un holograma realista de ese cantante.
Quiero que recordéis el vídeo de avatares sintéticos.
Al final la tecnología para hacer todo esto ya está aquí.
Y quizás este sea el mayor problema que detecto.
El umbral de acceso a esta tecnología es cada vez más bajo.
Y esto por un lado es muy positivo, pero por el otro también permite que en malas manos
cualquiera pueda distorsionar la imagen pública de cualquier persona cuya imagen esté inmortalizada
en internet.
El umbral de acceso a esta tecnología es cada vez más bajo.
En muy pocos años hemos pasado de las reconstrucciones manuales tridimensionales a contar con tecnología
que automáticamente puede aprender a generar un rostro.
Y claro, como todo fenómeno que al final queda ligado al avance de la inteligencia
artificial, esto no deja de evolucionar.
En semanas recientes habréis visto que internet se ha poblado de fotografías de rostros animados.
Quizás uno de los primeros casos comerciales de una empresa que ofrece servicios para
que tú mismo puedas practicar la nigromancia digital.
Se trata de MyHeritage, una empresa que en años recientes ha sabido integrar en su modelo
de negocio servicios de restauración y coloreado automático de imágenes.
Y que ahora va más allá… al más allá.
Para que en cuestión de segundos puedas tener un rostro animado de cualquier persona que
aparezca en una imagen.
Un servicio que ellos ofrecen para que tú puedas traer a la vida a aquellos recuerdos
de familiares que ya han fallecido.
¿Estás sorprendido?
Bueno, pues no deberías, porque de esto ya hablamos en 2019 en este vídeo de aquí.
Este servicio ha sido bautizado como Deep Nostalgia, y sin tener muchos detalles técnicos
de cómo la empresa tras esto lo ha implementado, me jugaría el brazo derecho de otra persona
a que esto está muy ligado a este paper del año pasado que justamente permite tomar el
control de una imagen a partir del movimiento capturado de otro vídeo con similares características.
Es con esta tecnología con la que también se ha potenciado herramientas similares como
Wombo App, que también durante las últimas semanas ha vuelto a ganar bastante tracción
dentro de internet.
Este paper es First Order Motion Model for Image Animation, y es un paper que os voy
a dejar abajo en la caja de descripción para que le echéis un vistazo junto a un cuaderno
de Google Collab para que podáis jugar con él.
Un paper tan efectivo y tan utilizado que incluso ha trascendido fuera de la comunidad
científica hasta el punto de acuñarse en internet el término Face Morph, para referirse
a este tipo tan concreto de deep fakes que hacen uso de este paper y que no requieren
de grandes dataset de vídeos para entrenar a la inteligencia artificial.
Con una sola imagen es suficiente.
Bueno, eso y el vídeo de referencia de un actor que actúe como el marionetista tras
la cámara.
Ojo, eh.
Trabajar como actor de cara para deep fakes.
Trabajo del siglo XXI.
Y bueno, los resultados no son perfectos, claro está, pero aún así a mí personalmente
no deja de gustarme.
Quizás sea la región de los ojos la que más active mi gana de creerme que esto que
estoy viendo aquí es un vídeo real, que detrás de la pantalla realmente hay una
persona viva queriendo mirarme y no la recreación sintetizada por una inteligencia artificial.
Una persona que en realidad hace tiempo ya falleció y que posiblemente nunca se cuestionó
que algo así sería posible.
¿Estaría de acuerdo?
¿Realmente esta persona querría esto?
¿Y vosotros qué?
¿Os gustaría que vuestra imagen y vuestra presencia trascendiera a vuestra propia existencia?
Quiero leer vuestras opiniones abajo en los comentarios.
Imagino que como todo dependerá, habrá gente que sí, habrá gente que no, habrá gente
que dependa de cómo se utilice y habrá gente que diga que, bueno, una vez fallecido, pues
da igual lo que hagan contigo.
Mi opinión os la cuento en Instagram Stories, podéis seguirme y ahí pondré stories para
contaros mi opinión sobre este tema y así podemos alargar un poco más.
Pero por favor, por favor, os pido que si en algún momento la imagen de Doche Sv tiene
que preservarse dentro de una pantalla, os pido por favor que esto nos sirva para entretener
a los turistas de un museo mientras se sacan selfies.
Confío en vosotros.
Os dejo por aquí algunos de los vídeos que he ido comentando por si os ha parecido interesante
y queréis seguir profundizando.
Yo recuerdo que si queréis apoyar este contenido en YouTube podéis hacerlo a través de mi
Patreon.
Tenéis el enlace aquí o abajo en la caja de descripción y es una forma de, bueno, pues
si has aprendido algo, si te ha parecido interesante, si te ha gustado este vídeo, pues que apoyéis
a que este contenido se siga haciendo mensualmente y que apoyéis a la comunidad de Doche Sv.
Por mi parte, nada más.
Nos vemos con más inteligencia artificial en el próximo vídeo. De locos.