logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Pregunta, ¿qué hace falta para poder desarrollar desde cero una aplicación que utilice todos estos algoritmos de la inteligencia artificial del deep learning que vemos aquí en el canal y que sea funcional, que esté desplegada, que los usuarios puedan utilizar y que realmente aporte algo nuevo, algo innovador?
Hoy vamos a responder muchas de estas preguntas y es que os traigo una entrevista que se produjo hace unas semanas en Twitch con el equipo de Avatar,
una aplicación que te permite hacer transferencia de estilo a imágenes y que realmente han desarrollado una tecnología bastante novedosa y muy interesante.
Es una historia que me hace mucha ilusión traer aquí al canal principal, ya que es una entrevista a un equipo de personas que realmente han aprendido de manera autodidacta poder hacer todo esto y que podría ser la historia de cualquiera de vosotros.
Y además el directo está plagado de unas cuantas sorpresas y momentos muy, muy graciosos.
Guapo tú, muy guapo.
Este es el estilo que tienes tú en Edithronix.
Lo voy a modificar, lo voy a modificar algo.
Lo voy a modificar a tiempo real.
Además ya sabéis que estos directos se hacen a través de Twitch, así que si no queréis perderos nada de este contenido,
pues es una buena idea ir a Twitch y seguirme y activar las notificaciones porque vamos a estar haciendo mucho contenido a partir de la semana que viene.
Por último y antes de empezar, si sois data scientist os recomiendo que os quedéis hasta el final,
tengo un mensaje relacionado con premios que os puede interesar, así que quedaros hasta los últimos minutos y ahí os lo explico todo, ¿vale?
Ok, sí, todo perfecto, pues comenzamos con la entrevista.
Y bueno, hoy va a ser un día bastante guay, bastante especial de nuevo,
porque vamos a hacer otra entrevista a gente, a profesionales, a expertos del mundo del Machine Learning,
incluso sabiendo un poco del ámbito más académico que a lo mejor es donde yo me muevo a la hora de hacer divulgación en el canal,
en Machine Learning en el mundo real.
Bueno, pues estamos aquí con el equipo de Avatar, Santi Iglesias, hola Santi.
Soy desarrollador, yo le hago de soporte de pato de goma a Pablo.
Abajo tenemos a Jairo, que te dedicas a la parte de... me han chivado de la parte de diseño, ¿no? De la aplicación.
Sí, la parte de diseño y la parte de user interface y otras cosas de navegación.
Y luego por abajo a la diagonal tenemos a Pablo Bernios.
Buenas, pues bueno, como comentas Santi, yo me encargado más de la parte de Deep Learning, del modelo,
que Santi es muy humilde, él se ha pegado todo el curre de la aplicación en Flutter, eso no ha comentado nada,
pero él todo eso ha sido cosa suya, que yo solo he hecho la parte del modelo y tal.
Primera pregunta que suelta por el chat. Dicen ¿por qué no se llama AppVatar?
Cachi, ¿cómo no pensamos en eso, Pablo?
Creía que estuvimos haciendo brainstorming y ahí...
Avatar es una aplicación y que básicamente utiliza un modelo de Machine Learning para hacer style transfer
y cambiar tu cara por, bueno, hacer avatares de ti con diferentes estilos.
Vale, este sería un vídeo típico que tenemos en TikTok, como nuestra líder en TikTok ahora mismo.
Y aquí vemos cómo aplicáis el style transfer para hacer la manipulación de la cara.
Y esto es un poco lo que explicabas, ¿no? Que es el tema de hacer transferencia de estilo sobre un vídeo que tú le subes a la aplicación.
Transferencia de estilo es coger una imagen de referencia, que la AI aprenda un poco cuál es el estilo de eso y a partir de ahí aplicarlo en el vídeo.
¿Vuestros perfiles realmente cuáles serían? O sea, ¿cuál es vuestra trayectoria profesional para llegar a día de hoy a ser...
Bueno, yo lo he autodenominado Machine Learning Developers por ponerle una etiqueta así que sonara curiosa.
Yo soy desarrollador. A día de hoy soy desarrollador. De hecho, me encanta el tema de Machine Learning y me encantaría meterme,
pero estoy ahí y ahí. Le tengo un poco de respeto y de momento lo tengo como hobby.
Es verdad que es un hobby que le he hecho todas las cosas que puedo, pero al final le trabajo y lo hago con el tiempo que pueda.
¿Has aprendido autodidacta?
Sí, todo muy gratuito. Creo que he hecho un curso solo de Udemy y no lo he acabado.
Lo mío es meterme con las manos en harina y salga.
Mola, mola.
Yo empecé mi carrera como desarrollador también. Empecé desarrollando para una empresa una aplicación de Android,
pero también por culpa de una persona que también has entrevistado alguna vez que es Andrés Torrubia.
Él como que se empezó a meter en todo el tema de la inteligencia artificial y tal y me picó el gusanillo.
Entonces, me empecé a hacer cursos en internet y demás y al final me acabé pasando de desarrollador de Android.
Me pasé, yo sí que profesionalmente, a temas de ingeniería de Machine Learning y demás y ahora me dedico a eso.
Ahora trabajo como ingeniero e investigador en temas de Machine Learning.
Trabajo en remoto para Disney.
O sea, no es una empresa española, ¿vale? Es que ha dicho investigación de Machine Learning y por un momento me había sorprendido un poco de que ese perfil.
Ojo, ¿eh?
Que susto.
O sea, trabajas dentro de lo que es todo Disney Research, que tienen un montón de trabajos guapísimos.
O sea, eso yo invito a la gente a que lo vea porque a lo mejor se sorprende en esto decir, no trabajo en Disney haciendo investigación,
pero buscad el canal de YouTube, por ejemplo, Disney Research, que tiene un montón de trabajos publicados que suelen publicar en SIGGRAPH y en todas estas conferencias.
Echadle un vistazo porque mola bastante.
Pues, te cuente la historia. Los conocí por accidente.
Bueno, a Santi porque trabajé con él y de repente le digo, oye Santi, si necesitas algo de diseño, pues avísame.
Pero yo, bromeando, ¿eh? Y de repente me dice, por el interno, me dice, ¿eh? ¿De verdad? ¿Me ha dicho esto en serio, tal?
Le digo, pues, pues sí. Si necesitas algo, pues, y desde ahí comencé a trabajar con ellos.
Es como cualquier otro trabajo.
O sea, puede existir el trigo de que algún día te digan, si algún día no están contentos, te digan, oye, que a lo mejor ha salido una IA ahora que maqueta aplicaciones sola.
Y también hacen con eso, ojo, cuidado, ¿eh?
Exacto.
La aplicación ahora mismo está en la tienda de iOS y la tienda de Android, las dos.
Supongo que es importante decir que no enviamos la foto en ningún momento, por ahora que decimos que enviamos la foto al servidor y tal.
Que no queremos vuestras caras, no queremos más datos de los que ya tenemos.
Y lo que hacemos es ser un primer embedding de tu cara para tener ese estilo, ese vector codificado de tu cara y enviarlo.
Estilizar ese vector codificado en vez de tu cara y así no tenemos que ir.
¿Esa decisión de hacerlo así es un poco por privacidad o por otro motivo?
Es un poco por las dos cosas, en este caso sobre todo por privacidad.
En el caso de los estilos, porque en el modelo se mezclan dos embeddings, el de estilos y el de tu cara.
Y la cosa es, con el embedding de la cara no se puede reconstruir la cara original, más o menos.
¿Nada?
No, no se puede.
Lo único que tenemos es información sobre la posición de los ojos, la nariz, dónde va la boca y tal.
Pero no tenemos ningún detalle sobre los píxeles, el color ni nada de eso.
Vale, ¿dónde está ese servidor?
El servidor está aquí, está ahí en la boca.
En el chat se están diciendo que ya le están dando caña.
Ya estabas comentando antes, Santi, y ahora si quieres comentarlo tu Pablo,
que vuestra dinámica de trabajo ha sido un poco como una competición de CAG, casi.
De decir, oye, queremos hacer esto, vamos a presentar modelos y a ver quién saca algo que funcione medianamente.
Yo diría que en mi caso, por lo menos, yo me subí un poco a lo que estaba intentando hacer Santi.
O sea, la idea fue de Santi, él tenía esa idea de, de hecho la idea era distinta a la que al final la aplicación hace.
La idea original era poder hacer, bueno, la idea de base de todo era poder hacer caricaturas, si no me equivoco.
Entonces queríamos poder coger una cara y hacer una caricatura.
Que ahora más o menos es lo que hacen estos modelos de Tunify, que te cogen, que te convierten un poco en un personaje de pixel y tal.
Y de repente, cuando estábamos con eso, de hecho llegamos a sacar una beta de eso como aplicación y tal,
entonces encontramos un dataset de cartoons, de dibujos animados y demás, y dijimos, vamos a probar, a ver qué tal.
Con el mismo concepto que estamos trabajando de coger una cara y poder modificarla y luego pasarla tal.
Y si le metemos por aquí los estilos, a ver qué pasa, y entonces nos flipamos con los resultados y decidimos.
Sí, sí, pero totalmente decidimos llevarlo hacia ahí.
O sea, mi filosofía por lo menos al hacer este modelo fue ir probando muchas cosas,
acabar descartando todo, las capas de attention, las capas fancy, normalizaciones complejas y demás.
Y dije, venga, a lo básico, lo más básico, porque además tengo una relación un poco de, no muy allá con las GANs,
porque me da mucha rabia que sean tan complejas de entrenar, entonces dije, sin GAN, ¿no?
Sí, fuera GANs, ¿no?
Al final hay que decir que al final hay un toquecito de GAN, ¿vale?
Sin evitarlo, pero al final, al final de todo.
Lo que Santi comentó, de repente empezarán a salir cosas.
Si complicarte demasiado, de repente, ¿no?
Es un subidón, ¿eh? Porque te llevas un montón de tiempo currando en algo que sale en unas cacas mentas siempre,
y de repente le das algo del play al modelo y te desciertas y ves una cara ahí maravillosa.
Un subidón.
A nivel de arquitectura, ¿qué tenemos entonces?
La arquitectura es custom, no hemos usado ni una GAN ni un autoencoder, sino una especie de híbrido entre ambas cosas.
Vale.
Lo más similar podría ser PIX2PIX, pero tampoco llega a ser una PIX2PIX.
Los componentes que podrías decir que tienes son varios.
Uno por separado, segmentador de caras, que es con el que extraemos esa información de dónde van los distintos elementos de la cara, ¿no?
Sí, con eso extraemos la información de los distintos elementos de la cara, y eso es la información que luego se le pasa al modelo.
Entonces, por eso comentaba que realmente no se puede reconstruir tu cara,
porque como muchos se podrían reconstruir, pues dónde va cada cosa, porque el modelo nunca llega a ver la cara en sí,
sino que pasa ese filtro del segmentador.
Y luego, por otro lado, tenemos el modelo en sí, que es el que recibe por un lado esos segmentos,
y por otro lado recibe la imagen de los estilos, ¿no?
Puede ser una imagen o puede ser directamente un embedding precalculado, y los combina.
Entonces, los combina a una arquitectura similar a la que podría ser un autoencoder, donde vamos reduciendo la dimensionalidad.
En el cuello de botella a una dimensión reducida, inyectamos el estilo,
le dejamos que el propio modelo aprenda cómo tiene que combinar las cosas para que tengan sentido,
y luego la reconstruimos la imagen.
El estilo, en lugar de utilizar una imagen sin más, que vamos a calcular la máscara también para los estilos.
Vamos a generar para cada segmento un embedding único.
Entonces, tendríamos un embedding para el estilo de los ojos, un embedding para el estilo del pelo,
un embedding para el estilo de la boca, otro para las orejas, ¿no?, etcétera.
Entonces, para cada uno de los componentes de la cara, tenemos un embedding,
en lugar de tener un solo embedding que representa el estilo por completo.
Entonces, eso nos permite luego poder coger y quitar el embedding de los ojos y ponerle otro y reconstruir la imagen.
¿Posible que este sea el momento?
Ah, bueno. Vale, vale.
Lo que tú veas.
Yo no he comentado nada.
Sí, sí, vale. Vamos a hacer una pausa técnica aquí.
Pero tenemos una sorpresa. Tenemos algo que nos van a enseñar que yo no sé qué es.
¿Tienes una clave de entrada?
Tengo una clave de entrada. A ver.
A ver, esto ya lo puedo enseñar, ¿no? Ya se supone que sí.
Oh, oh, oh, oh.
Tenemos un cuaderno de Jupyter que se llama Editronic versión 0.
Vale, estoy viendo que tenemos como una interfaz que guapo todo esto en Jupyter.
Vale. Bueno, explico un poco lo que estás viendo.
Vale. Arriba, como has comentado Santi, es la herramienta que nosotros usamos para explorar un poco los espacios latentes
y poder crear los estilos que luego los creamos a mano buscando las latentes que nos molan más
y son las que luego podemos ir poniendo en la aplicación.
La cuadrícula de imágenes que tienes arriba, tienes un preview de cuatro imágenes y a la derecha el resultado.
Vale.
Entonces, son imágenes estas de TLA, que es el dataset de este régimen de famosos.
Si le das al botón abajo del todo...
Aquí, sí, listo. Vale.
Sí, sí.
Si le das, te carga otras imágenes, ¿vale?
Simplemente es para que podamos ir viendo qué tal quedan los estilos sobre distintas caras.
Qué guapo.
Lo que tienes es justo debajo del preview tienes una lista de las distintas capas.
Un día es la base, básicamente el todo, y luego puedes modificar individualmente el pelo, los ojos, no sé si la boca.
O sea, porque aquí, claro, se entiende por lo que has explicado antes que como al final estás aplicando el estilo
de manera segmentada a cada parte, pues puedes hacer eso.
Puedes coger un vector de estilo y aplicárselo al fondo, otro vector de estilo a los ojos.
Lo siguiente y el relevante sería la lista que tienes como una especie de grid de nuevo con los estilos que puedes probar.
Vale, para que se vea un poco lo que serían los estilos, ¿no?
Si le doy aquí a next page, pues me va sacando. O sea, podemos ver eso, que hay un montón de estilos, rollo dibujado,
rollo diferentes técnicas, blanco y negro.
Si tocas en cualquiera de los estilos, se aplica inmediatamente a la imagen de arriba y puedes ver cómo queda.
Vale, vamos a aplicar este a todo. Vale, qué guapo.
Y si ahora te vas a cualquiera de las capas y seleccionas otro estilo, se aplica solo a esa capa.
Vale. Y tienes un slider con el que puedes jugar con el porcentaje como si fuera un alfa, ¿no?
Cuánto quieres aplicar ese estilo en esa capa.
De forma que si, por ejemplo, el estilo de base tiene el pelo rubio y le aplicas un pelo moreno,
puedes mover el slider para hacerlo un tono intermedio y puedes ir jugando, ¿no?
Y puedes ir creando combinaciones de estilos y tal.
Con esto, ya te digo yo, que nos hemos tirado, al menos Santi y yo, por lo menos, nos hemos tirado horas...
¡Jugando! ¡Jugando!
Que es muy divertido. Aunque la herramienta es interna, le vamos añadiendo features y demás,
sobre todo para poder nosotros movernos un poco por todos los estilos que hay.
Pues, por ejemplo, tienes un buscador con el que puedes buscar. Podemos poner keywords.
Y hace poco le hemos añadido una búsqueda usando Clip.
Escribes Clip, dos puntos, y pones una descripción de lo que quieres buscar y le das a enter,
pues te saldrán estilos que se acerquen a esa.
Internamente trabajamos con embeddings todo el rato para ver qué estilo es cada cosa.
Usamos el...
Espera que... Santi, Santi, que me descolocas todo, Santi, que no se ve.
Te quito a ti el vídeo.
Ahora, ahora, ahora. Vale.
Vale, ahora creo que nuestros nombres se habrán descolocado, pero espérate, ojo, ojo.
Vamos a volver a esto. Ahora cada uno se nos han movido los nombres.
Pero, vale, lo que estamos viendo ahora es que esta gente se ha montado el sistema en tiempo real.
Estamos viendo a Santi.
¡Qué guapo, tú! Muy guapo, tío.
Es el estilo que tienes tú en electronic, ¿eh?
¡Ah! ¡Ah! ¡Oh! ¡Oh!
¿Tú vas a modificar algo?
¡Oh! ¡Oh! ¡Oh!
Espérate, a ver, uf, uf.
A ver, o sea, bueno, voy a poner...
Está gustando, ¿eh? ¿Ves cómo te está gustando?
Pero es que esto se te va a convertir en el gigante verde ahora.
A ver, toma ya.
Esto va muy fino, ¿eh?
Fíjate, fíjate, el smooth, el cambio.
Sí, sí, sí, o sea, lo he apreciado, lo he apreciado.
Estoy, estoy, estoy muy contento, ¿eh?
Hay otra cosa guay, espérate.
Ojo, ¿eh? ¡Qué guapo!
¿Ese está puesto? Voy a buscar anime.
A ver si te puedo poner rollo anime.
Pero esto es, pero esto es sensacional, chavales.
A ver, te voy a poner esta cara de anime animu atractivo.
O sea, ¿y esto todavía no está disponible en la aplicación?
¿Este es juguete?
No.
¿Cuándo va a estar?
Es nuestro juego, estamos intentándolo con todas nuestras fuerzas.
Sí, ahora mismo esto está corriendo en una GPU en un ordenador en casa de Santa.
Vale.
Esto no es el servidor que habéis tirado.
Vale, vale, vale.
Pues en las primeras dos páginas creo que están los estilos de la aplicación.
Entonces, son un poco la selección que hemos hecho nosotros de estilos iniciales.
¡Qué guapo!
Estos son los estilos de la aplicación.
O sea, mola cómo te sombré a la cara en función de la orientación, ¿eh? Muy loco.
Además, me gusta mucho un detalle.
Y es que está todo metido dentro de Google Collab, el Jupyter este.
Y me gusta mucho toda esta interfaz que os habéis montado aquí.
Yo estaba hablando esta tarde con Pablo.
Que, que joder, en un año, tío, hemos hecho la tira de cosas.
Ojo, ¿eh? Mira, mira, mira.
Este también tiene la iluminación, que varía.
Es curioso, ¿eh? O sea, como que el modelo ha aprendido a flipear la iluminación como estrategia de...
Eso es porque durante el entreno hacemos un random flick.
Vale, vale.
Sí, hasta. Efectivamente.
Es que quiero probarlos todos. Solamente hay 3.000, chicos.
Así que bueno, tenemos un rato.
Solamente hay 3.000. Tenemos tiempo.
Ahora vemos esto. Mira, mira.
Bueno, ya sabemos que el modelo, a nivel de escala, ahí...
Sí, tenéis que cropear bien las caras.
Claro.
Y hacer las rectas.
Tengo un pequeño problema.
Esto me parece curioso.
Le pones el pelo rubio a un dibujo, que es un sketch.
En vez de ponerlo rubio, como interpreta que es un sketch, lo que haces lo pone blanco.
Claro. Bueno, en este caso lo ha puesto rubio.
Lo ha puesto...
Puesto un poco rubio, sí.
Sí, sí, sí.
Pero vamos, que no lo pone muy rubio porque dice, vale, es un sketch.
Claro.
No puede tener colores vivos.
O sea que el modelo en sí ha aprendido a mantener la coherencia.
Y por eso a veces, si por ejemplo eres un estilo muy exagerado,
con unos colores muy llamativos,
cuesta de, si le cambias el color del pelo, a lo mejor...
El color de base es rosa y me estás diciendo que lo pongas rubio.
Voy a ponerlo un rubio rosado.
Este en concreto no parpadea, ¿no?
No, ese no parpadea, no.
Hace un gesto muy raro de ojos.
Hace como un aleteo.
Aleteo.
Podéis sortear un cuadro como el que tiene Santi de fondo.
Santi, ¿quieres hacer una apreciación sobre ese cuadro?
¿Queréis hablar de ese cuadro?
Porque tiene historia, ¿eh?
Este cuadro tiene historia, sí.
Era que ya que estaba todo el tema del NFT on fire,
podíamos venderlo por NFT.
¿Por qué no?
Y con esto nos financiábamos para montar los servidores de la aplicación.
Y lo probamos la semana pasada.
Efectivamente este cuadro está a la venta.
Generalmente los NFTs suelen ser de la venta de la venta.
Es decir, de la venta de la venta.
Es decir, de la venta de la venta.
Generalmente los NFTs suelen ser digitales, ¿no?
Nosotros lo que estamos poniendo a la venta es el cuadro físico.
Nosotros lo que estamos poniendo a la venta es el cuadro físico.
Aunque lo pongamos a través de una plataforma de NFT.
Aunque lo pongamos a través de una plataforma de NFT.
O sea, técnicamente te llevas dos cosas.
Te llevas por una parte el cuadro físico y te llevas la copia digital para ti, para siempre.
Te llevas la copia digital para ti, para siempre.
Que eso está guay también.
Ahora vamos a hablar de esa tecnología que hemos petado.
Ahora vamos a hablar un poco de cómo tenéis desplegados.
Ahora vamos a hablar un poco de cómo tenéis desplegados.
Hostia, qué miedo, Santi.
¿Es eso de nuevo?
Se te genera una boca dentro de la boca.
Se te genera una boca dentro de la boca.
Lo más raro, a veces, es cuando se gira y en la oreja aparece un ojo.
Lo más raro, a veces, es cuando se gira y en la oreja aparece un ojo.
Lo más raro, a veces, es cuando se gira y en la oreja aparece un ojo.
Cuando se gira, se genera un ojo dentro de la oreja.
Eso es lo peor.
Esto es lo peor.
¿Cómo tenéis desplegado el modelo?
Esto ya decís que está corriendo en una GPU,
pero lo que es la aplicación, que es subir la imagen,
la inferencia que hacéis, ¿cómo lo tenéis desplegado?
¿Cómo vamos a apagar un setting?
¿Cómo vamos a apagar un setting?
para que funcione maravillosamente bien, sino que nos está sirviendo muy bien, y con esto,
con tu anterior directo, estamos utilizando una Jetson Nano.
Vámonos.
Tenemos en casa, tengo en casa una especie de mini CPD con dos ramperries y los Jetson
Nano de 4 gigas, eso sí, porque el modelo es súper, esto es de que me puté mientras
hablo.
O sea, estoy intentando remar a favor porque estoy buscando un filtro que te mueva la boca
un poco. Pues mola. O sea, mola ver eso, que al final se puede hacer, tener toda una
aplicación desplegada en un pequeño microprocesador ahí en casita y tranquilamente.
Mola mucho lo que comentábamos también esta mañana, Pablo y yo, que realmente hemos hecho
todo esto, todo el proceso de investigación, el proceso de deploy, y si se le envidia,
o sea que cualquiera puede.
Claro.
Nosotros podemos y vosotros podéis, cualquiera puede, no está en el complejo.
O sea, eso mola y es un buen mensaje, porque es lo que decimos, al final todo esto del
machine learning, deep learning, es una cosa que ya empieza a tener un poco de año de
edad, ya toda esta revolución, pues sí, se puede enfrascar en esta década, pero la
mayor parte de gente que está metida aquí no ha aprendido en la universidad porque es
que esto ha salido más tarde.
Entonces se puede aprender de forma autodidacta, se puede aprender juntándose gente que les
mole el tema y de repente sacando una aplicación como esta y vais a aprender mucho más metiendo
las manos en la masa y trabajando y intentando pelear con 20 modelos, tener un objetivo,
desplegarlo en una en una Jetson que se caiga, o sea, es lo que mola y es como se aprende
y hace mucho más motivante todo el proceso de incluso de documentación y todo.
Y ya en este punto yo lo que quería era probar esta aplicación con mi propia imagen y este
fue el resultado.
Vamos a subir.
Bueno, sí, ahora en un momentito os enseño esto, pero antes de acabar, si ha llegado
hasta aquí, es que seguramente seas una persona con inquietudes en todo esto de la inteligencia
artificial, el desarrollo, el análisis de datos e incluso a lo mejor has trabajado en
algún proyecto interesante de data science que quieras mostrar al mundo.
Pues escucha bien porque tengo algo muy interesante que contarte y es que SAS en colaboración
con Spain AI y la DSPA están organizando los Curiosity Data Science Iberian Awards.
Awards, awards, awards, awards, awards, awards, awards, awards, awards, awards, awards, awards,
ay, así lo entendemos todos.
Unos premios que lo que buscan es poner en valor el trabajo de aquellas personas que
han trabajado en proyectos de data science y que tengan un impacto social interesante.
Se premiarán aquellos proyectos que encajen en alguna de estas tres categorías donde
se buscan proyectos que hayan mejorado la calidad de vida de las personas, proyectos
que hayan mejorado los resultados empresariales y proyectos que premian la innovación en
el campo de data science.
Si tu proyecto saliera seleccionado, pues estarías optando por interesantes premios
en metálico, así como formaciones o posibles ofertas de trabajo, aunque todos sabemos que
aquí lo importante es el reconocimiento público.
Podéis presentaros individualmente o en equipos de máximo cuatro personas y esto es importante,
el premio está acotado solamente a participantes de España y Portugal o a proyectos que hayan
tenido aplicación en el territorio ibérico.
Así que daros prisa porque tenéis hasta el 31 de mayo para poder subir vuestros proyectos.
Apuntadlo bien en el calendario y revisad abajo también en la cajita de descripción
que voy a dejar un enlace a la web de SAS, donde podréis revisar pues todas las condiciones
de este premio.
Mi consejo aquí es participar, vale, o sea, estas oportunidades hay que aprovecharlas
siempre y además si el trabajo ya está hecho y es bueno, lo único que falta es el reconocimiento.
Yo voy a estar ojeando los diferentes proyectos que se publiquen como ganadores y ojalá
alguno de ellos esté entre vosotros.
Y por último también recordaros lo de siempre, que es que si queréis apoyar este contenido,
si realmente acabáis este vídeo pues habiendo aprendido algo más motivados o simplemente
os ha gustado, pues podéis apoyar que este contenido exista a través de una herramienta
como Patreon.
Podéis hacer una aportación mensual, la que queráis, para que todo este contenido
que hago aquí a través de dot ccv en YouTube, en Twitch, en diferentes plataformas, pues
se siga haciendo y bueno, pues sentiros también satisfechos con que estáis apoyando un proyecto
como este.
Esta, por ejemplo, ahí está, vale, hostia, pierdo, aquí pierdo toda la barba.
¡Oh Dios!
¡Oh Dios!
Claro, la barba se queda como parte del estilo, de la cara, es curioso.
Exacto, sí, hay los estalles de la cara y todo eso se guardan en el estilo, entonces
solo se mantiene la forma de la cara, la posición de la nariz y los ojos y demás.
Esta me gusta mucho, es que está muy bueno, o sea, a nivel de, incluso a nivel creativo
de cómo quedaría yo sobre este estilo, me ha sacado los ojos un poco virulés, pero
oye.
Yo también me molo, eh.
Y tú estás muy bueno, este filtro está muy guapo, eh.
Y nada, y que es una aplicación que han desarrollado ellos, como partiendo un poco de la idea
de querer aprender y tal, y han sacado la aplicación y funciona muy bien.
Pues nada chicos, ha sido un placer también para la gente del chat, a ver si os mola este
formato de entrevista.
Aprovecho y lo digo, si hay alguien aquí que crea que puede ser interesante lo que
hace para pasarse un día por aquí y tener una conversación, pues yo encantadísimo,
podéis contactarme a través de email y tal.
Y es una forma muy guay de traer al canal cosas que hace gente que trabaja en esto y
que mola un montón.
Así que nada, chicos, un placer Santi Pablo Jai.
Un placer estar aquí, muy divertido, y tiene que venir alguien que te lo pasa muy bien,
que venga.
Muchas gracias, chau.