logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Hola, chicos y chicas, ¿qué tal estáis? Bienvenidos a un nuevo vídeo al canal. ¿Cómo
estáis? Bien. Yo estoy muy contento, estoy satisfecho, no lo voy a negar. Ha ocurrido
algo que por fin llevo mucho tiempo pidiendo, algo que los que sois veteranos del canal
seguramente alguna vez me habréis escuchado decir y es esto de que una empresa como Adobe,
que es la que está detrás de un software como es Photoshop para manipulación de imágenes,
entre effects, que para hacer efectos especiales, Adobe Premiere para edición de vídeo. Bueno,
una empresa que tiene un montón de softwares que lo que buscan es dar herramientas a los
diseñadores gráficos, a gente que quiera trabajar manipulando datos multimedia desde
mi punto de vista es una de esas empresas que están llamadas a capitalizar muchos de
los avances que están ocurriendo en el campo de la inteligencia artificial. Avances como
los que hemos ido hablando nosotros a lo largo de todos estos años en el canal y que yo
creo que son herramientas que puestas en un software pueden facilitar la vida a muchísima
gente. Yo, por ejemplo, soy una persona que para hacer vídeos, para producir parte del
contenido que veis aquí a través del canal, uso herramientas de inteligencia artificial,
por ejemplo, para conseguir super resolución, para conseguir colorear una imagen. Bueno,
para diferentes tareas que al final yo digo ¿por qué no está esto dentro del software
de Adobe? Y por fin ha ocurrido. Han actualizado su paquete de software, han actualizado el
Photoshop añadiendo lo que ellos llaman filtros neurales o lo que son básicamente herramientas
basadas en inteligencia artificial. Herramientas de super resolución para poder aumentar una
fotografía dándole muchísima más calidad, poder colorear fotos en blanco y negro, poder
distorsionar una cara añadiendo más sensación de sorpresa, de ira, de sonrisa, de un montón
de herramientas que yo creo que todos van a estar muy contentos de tener y que hoy vamos
a probar. Vale, la idea de este vídeo simplemente es que juguemos con todas estas herramientas,
que las testeemos, que veamos que también funcionan y darlas un poco a conocer para
que sepáis que esto ya está aquí. No solo eso, quedaos hasta el final porque os voy
a dar una preview de lo que podría ser el Photoshop del futuro. Un paper, un artículo
científico que encontré hace unas semanas de este año y que creo que nos abre la visión
de lo que posiblemente sea la evolución de todas estas herramientas que posiblemente
muchos de vosotros que estáis viendo este vídeo porque a lo mejor trabajáis con Photoshop,
pues creo que os va a interesar. Así que quedaos hasta el final porque yo digo que
sí es impresionante. Dicho esto, vamos a dar paso a probar los filtros neurales de
la Adobe Photoshop 2021. Muy bien, yo en este caso he cargado esta imagen de aquí, vale
una imagen muy guapetón yo y lo que vamos a hacer ahora va a ser acudir a donde están
todas las herramientas. Yo en este caso si he estado investigando, sé dónde se encuentran
las cosas, he estado probando algún que otro filtro para ver si todo va bien y en este
caso pues aquí la gran mayoría de herramientas se encuentran en este menú. En Neural Filters
se encuentra toda la magia. Pero bueno, si le damos aquí lo que va a suceder es que
automáticamente va a ser una especie de detección facial, va a reconocer que esa es mi cara
y se nos va a desplegar este menú por aquí por la derecha, donde podemos ver que tenemos
accesibles dos herramientas que ponen suavizar la piel, transferencia de estilo y luego
aquí tenemos otro menú que son los filtros que están en beta, es decir filtros que todavía
Adobe no ha considerado que están lo suficientemente maduros como para decir que es un producto
final. En este caso, suavizar la piel, entiendo que va a ser algún tipo de filtro que lo
que va a quitarme son imperfecciones de la cara. Yo no sé si el algoritmo será capaz
de reconocer que yo, imperfecciones realmente tengo pocas. Parece como que me suaviza un
poco ciertamente, se me pone un poco más toque de seda y podemos jugar aquí con darle
más desenfoque, menos desenfoque. En este caso a mi este filtro pues poco me hace, porque
tengo una T envidiable, tengo una piel maravillosa que ya querría ni ver a patrocinar. Así
que vamos a saltar al siguiente efecto, que es uno de los que a mí más me gustan dentro
del campo del Machine Learning, que es la transferencia de estilo, el poder cogerte
de un cuadro artístico, poder extraer, poder analizar cuáles son los patrones que identificamos
nosotros con su estilo y aplicarlo a una imagen dada. Vale, en este caso vamos a activar esto
aquí. Vale, vemos que se está aplicando el primer filtro. Vamos a probar con este.
Vale, está chulo. Vamos a darle un poquito a ver qué opciones tenemos conservar el color,
se permite mantener el color original de la foto, enfocar al sujeto. Vale, en este caso
está pensando, aquí podemos ver que está pensando. Vamos a ver que más filtros tenemos
aquí. Bueno, uno típico Van Gogh. Vamos a aplicar la noche estrellada como estilo.
Vale, es quizás yo creo que han buscado algún tipo de transferencia de estilo que no es
tan lenta, hay algunos que requieren un cierto tiempo de procesamiento, pero quizás tampoco
es tan efectiva. Vale, pero ya digo que para un apaño, para jugar un poco y probar, a
ver, bien estilo Matrix. Ojo, que me sacaba una lámina de Mister Dot. Bastante chulo,
la verdad que lo que te permite tener es una serie de filtros que normalmente no tenemos.
Oh, qué chulo. Efectos que pueden quedar más o menos bien. Voy a probar, por ejemplo,
con esta imagen y la noche estrellada. A ver qué tal queda. Está está ahí, ahí. Vale,
no es un resultado súper súper, pero no está tan poco del todo mal. Le podemos dar
a conservar color. Es cuestión de ir probando. Yo creo que hay algunos filtros, algunos estilos
que se aplican mejor que otros. Está la versión de la Dalán en Madrid en agosto. Vale, es
como el infierno. Vale, bueno, visto esto, vamos a pasar a la zona más experimental.
Por ejemplo, podemos probar este de aquí. Vale, son retratos inteligentes. Básicamente
lo que hace es tomar mi rostro, reconocerlo de nuevo y a partir de aquí nos permite manipular
ciertas y ciertos sliders que pueden añadir o restar felicidad a mi cara. Sorpresa, añadir
o quitar la ira. Puede sumarme años, restarme años, cambiar mi mirada, densidad del cabello,
lloro, dirección de la cabeza. Bueno, un montón de ajustes que vamos a ir probando
poco a poco. Vale, vamos a marcar el de felicidad. Parece que tarda bastante, tarda unos minutillos.
Ojo, eh. Ojo. Ahí está, vale. Esto es un poco lo que hace la aplicación FaceApp. Rápidamente,
si tienes una modelo que a lo mejor quieres que esté más sonriente, más triste, pues
parece que aquí parece que me acabo de enfadar. A ver, vamos a bajarlo. No quiero postre.
Ay, Dios mío. Claro, pasándonos un poco, si nos vamos directamente a los casos más
extremos. Bueno, si nos vamos a los casos más extremos pasan cosas como esta, ¿vale?
Se distorsiona demasiado la cara, vale. Si me resto. No sabría yo decir si esto es más
sorpresa o menos sorpresa. Una pasada, eh, cómo se va acomodando la posición de las
orejas según cómo tense o no tense mi gesticulación. Muy fuerte. Vamos a ponernos gira, vamos
a enfadarnos un poco. Vale. Parece que quiere enseñar un poquillo de dientes. Vale. Pierdo
un poco la lo que yo identifico como mi cara. La verdad que entre más enfadado menos me
parezco a mí. También es cierto que soy una persona que me enfado poco, pero pero
sí funciona. Vale. Y aquí podría estar mucho más amigable. Si no me conociera, podria
podria ver esta foto y decir bueno, pues pues sí, pues no se nota que tenga un retoque
aparentemente. Me pongo un poquito más feliz, un poquito más triste y dentro de lo que
cabe podría dar el pego. Bueno, cuando saca dientes ya la cosa se va a peor. ¿Qué más
tenemos? Vale, vamos a bajar la edad facial. Vamos a ponernos más joven. Se me ve más
joven efectivamente. Vamos a ponernos un poquito más mayor, un poquito más mayor, un poco
más mayor. Vemos cómo se van añadiendo arrugas, cómo se me va tiñiendo la barba.
Un poquito más, un poco más. Ahí, ahí, ahí. Este está muy bien. Este la verdad
que da bastante el pego. Se nota algo. Hay algo que no sé si a lo mejor es porque me
conozco bastante la cara, pero noto algo un poco extraño, pero vamos, nadie debería
sospechar que a lo mejor esto es un montaje. ¿Qué más tenemos? Mirada. What? Ah, te
orienta la mirada, vale. Es raro porque es cierto que te orienta la mirada y podrías
recortar esto y ya está, pero hay un cierto movimiento de la parte de la barba que no
termino de entender. Pero esto está bien. O sea, quizás para la derecha falla un poco
más, pero para la izquierda lo hace bastante bien. Si comparamos. No, no deberíamos sospechar
que esto es un montaje y solamente con un slider lo puedes modificar. Densidad del cabello.
Ahí lo chiste. Pues mira, ojo. Añade un poco más de pelo. Me quita todo el pelo.
En la barba no toca nada, no cambia nada. Aquí parezco un banquero. ¿Quieres cambiar
tu trabajo? Hazte tráficer, tráficer. Serás más feliz. Dirección de la cabeza, podemos
orientar también la cabeza. Vale. Vale, si le llevamos muy al extremo, es que estoy tirando
siempre al máximo. Si tiramos al extremo, la cara sí la orienta bien, pero falla en
lo que está fuera del recorte y falla el cuello. Pero si es un poco, da el pego. Si
hago que estoy mirando un poquito para allá y gira un poco la mirada. No, no se ve raro.
Vale, dirección de la luz, luz a la derecha, luz a la izquierda, respetando la tridimensionalidad
de la cara. Vale, vamos a hacer otra prueba con esta imagen de aquí para tener un poco
de variedad de nuestra amiga Rocio Vidal, gata de Schrodinger. Fijaros que este filtro
procesa los datos de la imagen en la nube, es decir, esto se está ejecutando en la nube
de Adobe. Vamos a darle un poco más de felicidad. Vamos a ponerle un poco más de sorpresa.
Ok, vale. Ira, vamos a enfadarla, vamos a ponerle terraplanistas, vamos a ponerle en
mitad de la plaza callao. Dios mío. Dios rocío, no me odies por esto.
Como veis, no falla, estos filtros son perfectos, no tienen ningún tipo de problema, funcionan
a la perfección. Vamos a ponerle menos densidad de cabello, ahí. Vamos a girar la cabeza
para que mire. Está mirando con muy mala leche a los propios filtros del Photoshop.
Yo lo veo perfecto. ¿Cómo lo veis? Transferencia de maquillaje, vamos a aplicarle este maquillaje
y para parecer la escopeta un poco de Homer Simpson. Quizá mi cara no está hecha para
el maquillaje. Vamos a ir un momento a generarnos una cara con inteligencia artificial, por
supuesto, a la web de Dispersion Doesn't Exist. Vale, por ejemplo, vamos a guardarte, vamos
a guardarte aquí. Vale, seleccionamos y bueno, vale, ok. Cuando la imagen es a color creo
que la pilla mejor. Aquí sí le ha aplicado parte del maquillaje de la sombra de ojos,
le ha puesto el pintalabios. No está mal, no está mal. Con otra imagen, a ver, con
este maquillaje de aquí. Vale, este sí lo pilla. Bueno, no está mal, eh. Funciona relativamente
bien, al menos lo que es la parte de labios y sombra de ojos. Lo hace muy bien. No sé
si ha cambiado algo de los pómulos. No, solamente se queda con esta parte. Este sombreado de
aquí, este Kultureen, parece que no lo está aplicando del todo correcto. ¿Qué más tenemos?
A ver, profundidad de la neblina. La función neblina adaptada a la profundidad añade una
broma ambiental al sujeto y ajusta la calidad del entorno. Vamos a darle mucha más neblina,
que yo entiendo que en este caso es como una especie de desenfoque al fondo. Segmenta bien
lo que sería mi cuerpo. Aquí quizás hemos puesto demasiada neblina y también nos permite
jugar con la calidez. Está guay, eh. O sea, le da un efecto que está bastante, bastante
curioso. Vale, vamos a hacer la prueba con un poquito, con una foto con un poquito más
de fondo a ver qué tal está. Ay, Dios mío, espero que nadie me odie después de todo
esto que estoy haciendo. Vamos a aplicar un poquito de profundidad de neblina a ver qué
tal queda aquí, que yo creo que puede quedar curioso. Vamos a ver qué tal lo hace. Ahí
está. O sea, consigue añadirle un poquito más de efecto dramático a lo que es la imagen.
Creo que por aquí no se ha terminado de aplicar. Puede ser. Ah, no, sí, sí, se aplica. O sea,
al final lo que está haciendo es una segmentación de imagen. Está sacando la silueta de lo
que sería lo que identifica como el sujeto y el resto lo está dejando mucho menos marcado.
Vamos a poner un poco más de tonos fríos. Vale, un poco es exagerado, creo yo. Pero
lo que es la neblina está bastante bien, tanto que yo creo que a lo que es a Crespo
le va a gustar. ¿Verdad, Crespo? Uff. ¿Qué más tenemos? A ver, en este caso vamos a
seleccionar ahora el filtro de colorear, básicamente convertir una foto en blanco y negro a color.
De esto el modelo más avanzado que yo conozco que existe es The Old Defy, que no sé si
realmente el que están utilizando en este caso vamos a darle, vamos a probar a ver qué
tal funciona. Vale, bastante bien. Vemos como gran parte de la piel lo colorea del color
que toca. El buen color de piel que tengo en la cara quizás le falta un poco. No sé
exactamente qué hacen estos ajustes si es para poder controlar un poco el color general
de la escena y luego tenemos aquí una especie de selección de color en plan de oye que
no, que mi brazo es rojo o que a lo mejor la iluminación por aquí arriba es verde.
Vale, verde por aquí, verde por acá. La cara me la mantiene. El de repente poder seleccionar
aquí que la iluminación sea de este tipo, por aquí que sea de este tipo, que te respete
la cara. Vamos a ponernos la cara del color que toca. Vale, bueno, un poco zonahoria pero
muy bien. Si no tenéis acceso a Photoshop os recomiendo ir a la web Deep AI y dentro
de esta web en el apartado de, le dais aquí a tres puntos en APIs, vais a encontrar una
serie de APIs que podéis utilizar de manera gratuita para por ejemplo hacer colorización
de imágenes, reconocimiento facial, super resolución, muchos de los filtros que estamos
viendo que están aquí en Photoshop pero de manera gratuita, lo cual pues también se
agradece. Entonces vamos a probar a subir una imagen a esta versión de The Old DeFi
que esta sí sé que es ese modelo de Jason Antic y vamos a comparar el resultado con
el del Photoshop para ver si a lo mejor resulta ser el mismo modelo. Colorear, vamos a ver
qué tal. Vale, bastante bien el resultado. Vemos que lo que tiene que ser verde lo pinta
verde, las caras las pinta bien. Si lo comparamos por ejemplo con lo que pueda ser la API gratuita
creo que el resultado va a ser similar, me parece que es el mismo modelo. Bueno, de hecho
creo que el de la web funciona incluso mejor porque veo que por ejemplo está coloreando
más color las caras, los calcetines le está poniendo color. O sea diría que no es un resultado
tan bueno como el que podemos encontrar a través de internet de manera gratuita. Pero
de nuevo, es un comienzo, es un comienzo pero ojalá cojan el modelo que está desarrollando
Jason Antic que es el investigador que está trabajando en este problema. Ha mostrado unos
resultados por Twitter que son completamente impresionantes de lo que va a ser el futuro
de su modelo. Bueno, he tenido que buscarlo. Estas son fotos que él ha podido dar color
gracias a su modelo. En este caso recuperando, por ejemplo, una imagen como esta te la restaura
esto. Tiene un montón de experimentos a través de Twitter que recomiendo echar un
vistazo. Imágenes como esta, por ejemplo, son, no sé, a mí son de las cosas que más
disfruto dentro del campo de la de la inteligencia artificial. Todos estos resultados son una
auténtica pasada. Otro efecto que yo suelo utilizar muchísimo cuando hago edición de
vídeo es la super resolución. Vale, de esto ya hemos hablado incluso en el canal. Tenéis
vídeo explicando los conceptos teóricos que hay por detrás. También tenéis otro
vídeo en el que lo estuvimos aplicando para restaurar una obra antigua, un vídeo y es
una herramienta que es súper útil porque al final lo que estamos consiguiendo es poder
aumentar una imagen sin perder mucho detalle, sin perder calidad. Para probarla no venimos
para acá a super zoom. Vamos a activarla y en este caso creo que podemos hacer. Vale,
vamos a ampliar la imagen aquí y no sé si se va a actualizar o qué va a pasar o si
lo tenemos que visualizar aquí dentro. Vale, aquí aquí lo estamos viendo. Diría que
suaviza demasiado la piel. Deja. Creo que empiezo a ver algunos detalles que están
incluso alucinados. Ya sabemos que este tipo de técnicas lo que hacen es eliminar posibles
desperfectos, rellenar píxeles y también alucinar detalles, generar detalles donde
no los hay. Por ejemplo, texturas de piel, pelos y diferentes cosas que hacen que parezca
que lo está viendo en alta resolución. Bueno, si vale, cuando lo comparas y se nota
bastante la diferencia de lo que son los píxeles y lo que en la imagen recuperada
no está bastante bien. No lo voy a negar. Vamos a ver qué hace con la zona de la barbilla.
Ahí está. Vale, vemos cómo en parte yo creo que aquí se está inventando surcos y
líneas que realmente no hay. Vale, por ejemplo, aquí se ven como zonas de pelos casi como
si fueran blancos. Cuánto es el máximo que podemos ampliar la imagen? Podemos hacer
un superzoom a mi ojo. A ver qué ha generado esto? Bueno, no está mal, no está mal. Comparamos
antes y después y no está mal el resultado que consigue. Y por último, vamos a probar
una herramienta que yo sé que me lo dijo mi hermano que trabaja bastante con fotografía,
puede ser una de las favoritas de las que hay aquí dentro de este surtido de herramientas
y es la eliminación de artefactos JPG, donde todo esto de aquí, además de ser una imagen
con muy poca calidad, pues serían artefactos generados por este tipo de compresión. Vamos
a darle aquí, vamos a ver qué pasa, a ver qué también funciona, a ver si los consigue
eliminar en cierta manera. En partes se ha quitado bastante, o sea, creo que podemos
hacer la comparación del antes y el después. Al menos lo disimula más, quita en general
bastantes elementos. Yo creo que aparte del resultado, bueno, por ejemplo, toda esta zona
del pétalo, fijaros como la mayoría de bloques directamente pasan a no percibirse. Me gustaría
probar a ver guardar este resultado. Está guay porque incluso podemos ver la imagen
que genera por encima y se ven todos los artefactos. Está bastante guay. Vamos a combinar estas
dos capas, combinar hacia abajo y vamos a darle de nuevo a ver si podemos retirar más
elementos dentro de esta imagen. Vamos a darle de nuevo intensidad alta y el resultado nuevamente
es que elimina parte del detalle. Y con esto tendríamos un poco visto todas las herramientas
nuevas que hay en el Photoshop. No son las únicas, hay algunas más para reemplazar cielos,
para hacer un silueteado de la persona. Es decir, hay muchas herramientas que se están
convirtiendo en inteligentes y solamente viendo este menú, pues podemos ver todo lo que va
a venir. Tenemos, por ejemplo, para poder restaurar fotos, para poder eliminar polvo
y racuño, reducción de ruidos en nuestras imágenes, por ejemplo, nocturnas, limpieza
de rostro, que en este caso es para eliminar elementos como gafas. Entiendo, ¿no? Convertir
fotografías a bocetos, convertir bocetos a fotografías, lápiz artístico o el tunify
este que se ha puesto de moda también para convertir tu cara a caricatura. Todo esto
son herramientas que están llegando, herramientas basadas en inteligencia artificial. Y desde
mi punto de vista, la valoración que lo doy a las que están ahora es que están bien.
Son herramientas que las pruebas pueden funcionar en ciertos aspectos. Yo creo que te pueden
servir para ayudarte en tu trabajo si sabes bien cómo depurar muchos de los errores que
van a surgir. La buena noticia y lo que me tiene bastante contento es que este es el
comienzo, es decir, lo más importante está hecho que es tener estos modelos disponibles
en Photoshop y el resto es Adobe teniendo que trabajar en sus centros laboratorios, lo que
tengan para ir mejorando los modelos que tienen accesibles a través de su nube. Adobe está
apostando por esta tecnología y eso es una muy buena noticia. Este es el presente de
esta herramienta y tenemos también una visión de lo que podría ser el Photoshop en el corto
y medio plazo. Pero cómo será el Photoshop del futuro? Bueno, quiero que veáis esta
herramienta de aquí. Es un trabajo impresionante que, como dije antes, encontré hace un par
de semanas, pero lleva publicado ya varios meses y lo que nos presentan es una herramienta
donde nosotros podemos cargar una imagen y dejar que sea un algoritmo de inteligencia
digital, el que analice el contenido de lo que aparece, permitiéndonos luego poder manipular
el estilo de los diferentes elementos que hay en esa imagen, lo que ha entendido la
red neuronal que hay para, por ejemplo, modificar el estilo de la roca a que sea más con más
vegetación, menos vegetación, que sea de día, que sea de noche, poder cambiar tanto
el estilo como la estructura de los elementos que se reconocen en la imagen. Pues por ejemplo,
si fuera agua, poder congelarla, poder no congelarla, el cielo cambiar de día a noche,
es decir, un montón de funcionalidades inteligentes de cosas que nosotros podríamos imaginar
que una herramienta podría tener. Pues oye, yo me puedo imaginar esta imagen cómo sería
de noche, cómo podría ser de día. Todo eso a golpe de ratón. Es una pasada el ver,
por ejemplo, como en esta foto se puede manipular el tiempo de exposición de la foto comprobándose
como por ejemplo el efecto del agua se puede conseguir más efecto de seda o más efecto
que el tiempo de exposición ha sido muy rápido y por tanto pues puedes manipular elementos
fotográficos que normalmente trabaja desde la cámara. Es el futuro del Photoshop y lo
digo con bastante certeza porque además este paper también está firmado por Adobe, con
lo cual no sería para nada descabellado ver que esto aparezca en el Photoshop 2025 o algo
por el estilo. Bueno, nada más chicos, ya sabéis, podéis apoyar este tipo de vídeos
pues eso no con Patreon, pero también muy importante compartiéndolo, dándole me gusta,
generando tráfico, haciendo comentarios. Quiero saber vuestra opinión sobre los filtros,
cuál es el que más os emociona de todos los que hay aquí y qué os gustaría ver
en el futuro como herramientas. Y eso me recuerda, por cierto, que estamos metidos en Twitch,
en montón de directos. Estamos trabajando para automatizar mi proceso de edición con
Premiere. Ya hemos trabajado, hemos conseguido cargar un vídeo, analizarlo, sacar el audio
y hacer cortes automáticos y vamos a seguir en futuro directos trabajando en esto. Así
que si quieres participar en este proyecto, el proyecto que hemos llamado Acute Stick,
un nombre complejo, pero votado por ustedes, podéis participar en estos directos, podéis
seguirme en Twitch, os dejo el enlace abajo en la caja de descripción y también lo estoy
resolviendo el canal secundario por si queréis pichear un poco y ver qué hemos hecho hasta
ahora. Por mi parte, nada más, muchas gracias por verme y nos vemos la semana que viene
con más Inteligencia Artificial.