logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Sí, tranquilo, ese es correcto, ¿vale? Al final de este vídeo voy a contaros cómo podéis conseguir una tarjeta gráfica
3090. Bueno, el título es un poco falso, en realidad no es una tarjeta gráfica, son dos tarjetas gráficas y bueno, y más cosas.
Quedaros hasta el final y os enteraréis cómo. Pero antes, quiero que os imaginéis la siguiente situación.
Imaginad que estáis ante la necesidad de utilizar algún tipo de modelo de Machine Learning para reconocer el tipo de roca que tenéis delante.
Apuntáis con la cámara, dejáis que la información se procesa en la nube y ¡boom! lo tenemos.
En cuestión de segundos tienes la respuesta en tus manos. Bien, ¿no? La comodidad del siglo XXI,
pero hay un problema. Y es que lo que no te he dicho es que en realidad tú no eres tú, sino un robot de
reconocimiento dentro de una cueva inhóspita sin acceso a internet. O, por ejemplo, un mini submarino autónomo que está analizando las profundidades del océano.
O mejor aún, un rover analizando muestras en un planeta desconocido.
¿Qué pasa ahora con todos estos modelos que se ejecutan en la nube? Hoy os quiero hablar de un paradigma de computación alternativo a la computación en la nube.
Y además no sólo voy a explicaros qué es y cuáles son sus ventajas, sino que además en este vídeo que viene en colaboración con
NVIDIA, os vamos a explicar cómo vosotros mismos podéis empezar a cacharrear y a diseñar vuestros propios proyectos.
Hoy vamos a hablar del Edge AI.
Cuando nos referimos al concepto Edge AI, en realidad nos estamos refiriendo a la fusión de dos conceptos.
Por un lado, AI, evidentemente inteligencia artificial, y por el otro, Edge Computing, o en español computación en el borde.
¿Qué es esto? El término proviene de la siguiente idea.
Normalmente, cuando usamos modelos de Machine Learning, estos requieren que los datos, por ejemplo, tu audio de voz, sean enviados por la red hasta algún servidor en la nube.
Bueno, o en algún datacenter de Oklahoma. Ahí es donde se realiza la computación, donde tus datos serán procesados y donde el modelo generará una respuesta
que viajará de vuelta hasta tu dispositivo, que es donde estás físicamente tú.
Si lo piensas, la alternativa a esto la encontraríamos cuando dejamos que este procesamiento se realice cerca o en el mismo dispositivo que estás utilizando.
En este caso, el modelo de Machine Learning se encontraría en este dispositivo y será de tu mismo dispositivo.
Diremos que la computación se está realizando en el borde.
Y esto puede tener varias ventajas. Una de ellas, ya la hemos comentado antes, y es que realmente no dependemos de una conexión a Internet para hacer el envío o el recibimiento de datos.
Eso hace que podamos tener modelos desplegados en hardware que pueden operar en condiciones inhóspitas.
Si quieres, por ejemplo, tener un dron submarino que sea capaz de reconocer su entorno y seguir diferentes objetivos bajo el mar,
sin necesidad de tener una cáncer de información que se pueda dar a través de este dispositivo,
sin necesidad de tener una conexión con tierra, optar por un sistema autocontenido donde toda la computación de Machine Learning se realice en el propio dispositivo es una buena idea.
Un caso de uso que se puede extrapolar a otras situaciones donde no siempre es posible contar con una conexión estable y de calidad a Internet que no dé acceso a la computación en la nube.
Motivo por el cual también sectores como los de la conducción autónoma confían en este modelo de computación para realizar todos los cálculos desde el vehículo,
pudiendo hacer de manera fiable pues todos los procesos de detección de elemento en carretera, toma de decisiones, control de sensores, todo.
Pero ojo, el no depender de una conexión a Internet para enviar y recibir los datos no es la única ventaja de este modelo de computación.
Hay otra. No hay latencia de red.
Es decir, si procesar los datos en la nube requiere de tener que mandar esos datos a unos ordenadores centrales y esperar a una respuesta,
la suma de todos los tiempos en la comunicación va generando un delay que hace que la respuesta de nuestro modelo no sea tan rápida como desearíamos en determinados escenarios.
Deseamos una respuesta, algo sencillo.
Tengo que pensármelo. Regresada a este lugar justo dentro de 7 millones y medio de años.
Un ejemplo de esto lo podemos encontrar con los modelos de voz que ejecutamos en nuestro móvil.
Hay una gran diferencia en la experiencia de usuario cuando tenemos que esperar a que nuestra voz se vaya procesando palabra por palabra en la nube,
frente a la opción de que el modelo de reconocimiento de voz ya esté autocontenido en nuestro dispositivo móvil y que por tanto el resultado lo vayamos obteniendo en tiempo real.
¿Lo veis?
Un aspecto de velocidad que en muchas operaciones industriales puede ser un requisito clave.
Pero no solo la velocidad es un aspecto clave.
Fijaros bien lo que he dicho. No necesitamos mandar nuestros datos a un ordenador centralizado externo.
Esto significa que mis datos no van a estar siendo distribuidos ni almacenados ni gestionados por una empresa de terceros que realmente yo no sé cómo lo va a gestionar.
Los datos se quedan en el borde junto al usuario.
Esto me recuerda un poco a aquella estúpida polémica que se formó con la aplicación FaceApp cuando alguien de repente descubrió que,
o sorpresa, sus datos de imágenes de rostros no se quedaban en su dispositivo móvil sino que eran procesados en un servidor de internet.
Pues eso, la alternativa que el problema hubiera sido que el procesamiento se realizara completo en el dispositivo móvil.
Y es este aspecto de privacidad que cada vez interesa más a nuestra sociedad el que un paradigma de computación como la computación en el borde nos puede aportar por diseño.
Pero espera Carlos, ¿cómo es posible que nos estés hablando de meter modelos de Machine Learning en dispositivos que son pequeños y microprocesadores
cuando la tendencia natural es que estos modelos de Machine Learning cada vez son más grandes y ocupan más espacio y requieren de grandes centros de datos
y cómo es esto posible? Muy buena pregunta, Carlos que escribe el guión.
Hey, de nada.
La realidad es que sí, las necesidades que nos exige un modelo de Machine Learning típico a día de hoy en algunos casos incluso excede lo que un solo procesador nos puede ofrecer.
Y además vemos que la tendencia de escalar los modelos sigue siendo al alza.
Pero aquí hay una cosa muy importante a entender y es que no es lo mismo las necesidades de computación que podríamos tener a la hora de entrenar a un modelo que las que necesitamos cuando lo utilizamos.
Lo que normalmente se denomina hacer inferencia.
Comúnmente para entrenar un modelo de Deep Learning hace falta que por nuestras redes pasen miles y millones de ejemplos de datos y realizar también una gran cantidad de ciclos de entrenamiento para que poco a poco vaya aprendiendo.
Y para esto necesitamos mucha potencia de computación.
Pero una vez la red ya está entrenada, hacer una predicción, hacer inferencia, es muchísimo menos costoso, ya que solo se requiere pasar una pequeña cantidad de datos una única vez por nuestra red.
¿Lo veis?
La diferencia de computación es considerable y más allá de eso, incluso existen técnicas para poder comprimir el tamaño de estos modelos una vez ya están entrenados para que ocupen menos espacio en memoria cuando queramos hacer predicciones.
Existen técnicas como las de pruning o poda que lo que hacen es buscar aquellas conexiones dentro de nuestra red que realmente no están participando del resultado final.
Y bueno, pues se las cargan, reduciendo así la cantidad de parámetros que tenemos que almacenar en memoria.
O por ejemplo, técnicas de cuantización que se entiende mejor viendo como esta imagen de aquí que codifica cada píxel con ocho bits se parece bastante a esta imagen de aquí que realmente la codifica con dos bits de información.
La información más importante se mantiene, pero esta imagen de aquí pesa mucho menos, algo similar a lo que podemos hacer cuando variamos la precisión con la que almacenamos los parámetros de nuestra red, ocupando así menos espacio en memoria.
Y luego después existen técnicas incluso mucho más avanzadas donde tenemos pues una red que aprende de otra red, donde una es la estudiante, otra es la profesora y donde el conocimiento se transfiere haciendo un proceso de destilación que ya os contaré en futuros vídeos, vale?
Yo creo que todo esto da para un vídeo muy interesante, así que suscribiros para que en caso de que se haga no lo perdáis.
En cualquier caso, el resultado es que gracias a la computación en el borde, al Edge AI, con el que contamos con otro paradigma de computación que nos va a permitir poder explotar las capacidades que los modelos de Machine Learning nos ofrece desplegados en cualquier dispositivo que nos rodee.
Y no solo eso, sino que también es posible que cualquiera de vosotros se pueda hacer con un microprocesador como este y pueda empezar a cacharrear con sus propios proyectos de Edge AI.
Vamos a ver cómo.
Y para ver un ejemplo más real de lo que es todo esto del Edge AI, tengo un invitado que es Asier Arrans, quien trabaja en NVIDIA, trabaja en el departamento de sistemas embebidos.
Sistemas embebidos, de EMEA, que es como Europa, Middle East, África.
Vale, y que también está muy activo en redes sociales con sus movidas de inteligencia artificial, tienes el canal de YouTube.
Sí, un poquito paradito, pero bueno, si van unos cuantos para allá, pues se va el manímo a subir vídeos, ya lo veremos.
Y lo que nos viene a enseñar hoy Asier, pues es uno de estos dispositivos que podemos utilizar nosotros para empezar a profundizar un poco en el mundo de Edge AI.
Hemos hablado que al final hacer entrenamiento, pues requerimos de grandes GPUs para poder entrenar nuestros modelos.
Pero a la hora de hacer inferencia, pues esto lo podemos desplegar en pequeños dispositivos como este que tenemos aquí.
Incluso así, se queda pequeñito. Si lo soltamos del developer kit, se queda más nano.
Que podemos utilizar para montar nuestros propios proyectos donde hagamos uso de modelos de Machine Learning, pero que no requieran de estar conectados a complejos sistemas en la nube donde hay problemas de latencia y todo.
Con lo cual, pues a un dispositivo que es muy guay para hacer proyectillos y cosas muy chulas.
Bueno, pues lo que veis aquí que es la Jackson Nano, realmente el módulo es muy pequeñito.
Es una cosita, pues eso, así de nana, que va metida en este...
Es como un módulo, que es la parte del developer kit, donde ya tenéis las salidas, pues eso, de puerto de red, tenéis 3 USB, en la de 4 GB hay 4 USBs y HDMI.
Y lo bueno es que esta tiene ya un cargador USB-C, con lo cual es muy sencillo conectar a cualquier pantalla teclado y directamente ya es un mini ordenador.
Vale, o sea, esto podría servir como un ordenador normal de sobremesa si quisiéramos, ¿no? Sería...
Sí, no tiene la súper mega potencia de un sobremesa, pero yo, por ejemplo, cuando desarrollo la nano, tengo abierto el Telegram para compartirme archivos desde otro ordenador.
El Visual Studio, que tiene una versión Open Source, funciona perfectamente aquí.
Mientras tanto, igual estoy haciendo inferencia o viendo un vídeo en YouTube, que también funcionan.
Vale, pero el objetivo no sería utilizarlo como un ordenador, sino como un sistema para ejecutar modelos de inteligencia artificial.
Exacto, esto es muy bueno para hacer inferencia. Entonces, quizá no es tan potente para hacer training, por eso tenemos las GPUs o la nube.
Pero para inferencia es la bomba. Funciona, por ejemplo, para hacer electricidad de caras, de peatones, segmentación de carreteras...
Y lo bueno es que eso, que cuesta como 50-60 euros, y con esto puedes servir para que tu empieces a aprender tus primeros pasos con inteligencia artificial.
Pero es que puede acabar esto en un proyecto, yo que sé, en un satélite bien aislado, ¿no?
Hay gente que está intentando hacer este tipo de cosas, o haciendo un robot acuático que lleva una Jetson, o montando un coche autónomo que lleva una Jetson...
Entonces está muy bien para cacharrear, y si te animas en algún momento, pues adelante un proyecto industrial, por ejemplo.
A mí se me hace como muy raro el pensar que esto podría estar ejecutando algo de inteligencia artificial y que en ningún momento está conectado a la nube.
O sea, es como que tengo muy asociado el... Ejecutas un modelo de inteligencia artificial que hace algo impresionante, como detección de voz.
Y que eso tiene que estar conectado a una red. No, no. O sea, todo estaría aquí autocontenido, y te sirve para hacer un proyecto, para meterlo en cualquier parte del mundo y que funcione.
Sí, exacto. Sí, sí. Además, lo bueno, pues eso. Con este developer kit, cualquiera que lo tenga y ya sepa cacharrear un poquito más o menos, un poquito más allá de lo básico,
puede aplicar para conseguir el título de Nvidia Specialist, que es un título oficial de Nvidia que puede ayudar para conseguir trabajo en el mundo de inteligencia artificial.
Pero si además a esa persona le gusta dar clase, puede intentar aplicar para ser Jetson AI Ambassador, que es ya pues eso, para poder dar cursos y tal.
Todo gratuito, solo hace falta tener una Jetson y ser un poquito curioso. Me puedo convertir en un embasador.
Puedes ser un embasador. Yo este nombre sí con la espada. Me gustaría. Una Jetson, un brazo robótico y que me haga con una espada. Me parece bien.
Yo creo que no. El proyecto que presentes es para ser embasador. Me gusta la AIA, pero no tanto. No te fías. No confío tanto en la AIA.
Vale, a mí me llega este cacharro al buzón de mi casa. Tengo el cacharrito y ¿qué hago con esto? O sea, ¿cómo lo pongo a funcionar? ¿Tienes algún ejemplo?
Pues vamos a dar un ejemplo desde cero, para que cualquier persona que lo enchufe en su casa o en un ordenador vea lo que se puede hacer en 10 minutos.
¿10 minutos? En 5, de hecho. ¿5 minutos? 6. Vale, bueno, esto sería la pantalla inicial. Es la típica instalación de igual que un Ubuntu.
Simplemente eliges tu lenguaje, tu teclado, tu zona horaria, metes el nombre, que como somos muy originales, pues ponemos Jetson.
Y nada, creamos una partición que es simplemente siguiente a siguiente. O sea, aquí estamos montando todo el sistema operativo dentro del ordenador.
Sí, desplegando el sistema operativo, que esto lo coge directamente de la imagen, de la SD card que le hemos metido.
Y bueno, luego he preparado un pequeño script que resume un poco los comandos que hay que meter al principio.
Los comandos que se ejecutan son los siguientes, que van a seguir ahora. Son estos pequeños de aquí, que lo que hacen es clonar un repositorio, hacer un build directamente, instalarlo.
Estamos cogiendo de GitHub un proyecto y lo estamos lanzando aquí dentro de la Jetson.
El proyecto tiene varios ejemplos, por eso lo he cogido porque ya tenemos varios vídeos para probar.
Se nos abriría aquí ahora un panel para elegir los modelos que queremos instalar.
Vale, estoy viendo modelos que son típicos modelos que podemos ver en el mundo del deep learning. AlexNet, GoogleNet, RedesNet.
Entiendo que son modelos que están pensados para dispositivos móviles que están más comprimidos. O sea, no puedes poner un modelo aquí.
Claro, de varios que ocupe varias gigas de memoria.
Vale, veo que hay modelos de segmentación, de procesamiento de imágenes, reconocimiento de objetos, hay de todo.
Sí, y nada, sería esperar a que se descarguen los megas o gigas que hayamos seleccionado.
Pero bueno, esto es importante. Aquí tenemos la opción de instalar PyTorch, que esto sirve para si queremos hacer entrenamiento en la Jetson.
Como para este ejemplo no vamos a hacerlo, no lo marcamos porque es verdad que la instalación de PyTorch tarda y mucho.
Igual son 30-40 minutillos compilando, porque es una Jetson, la pobre.
Tampoco es recomendable hacer entrenamiento.
No es recomendable, no es necesario, pero se puede hacer.
Yo alguna vez lo he hecho para un proyecto que hice con una pizza, para montar una pizza de pepperoni, reconociendo pepperoni.
Una pizza de pepperoni.
Y el entrenamiento me costó un montón porque tuve que hacer como 200 muestras de fotografías, de ir poniendo un pepperoni, otro pepperoni, otro pepperoni,
y entrenándolo en distintos giros y tal, para que no reconozcan al mismo pepperoni.
Data aumentación con pepperonis.
Exacto, y eso estaría bien haberlo hecho. Tenía que haber hecho un script de data aumentación.
Ah, tú lo hiciste manual.
Lo hice manual porque lo hice directamente a la Jetson.
Me gusta, me gusta.
Pero hice como 200 muestras así, a ver, lo tardé mucho, 15 minutillos.
Dándole vueltas al pepperoni.
Exacto.
Ojo, pero luego funcionaba muy bien, ¿eh?
Sí.
Listo, seguimos aquí.
Vale, bueno, vamos en una carpeta que tenemos aquí localizada, que es donde están los vídeos de ejemplo, ¿vale?
Aquí tenemos uno de peatones andando, y sobre este vídeo vamos a ejecutar el modelo por defecto, SSD MobileNet V2,
y está detectando cosas, pues mira, una planta ahí, personas, veis que no, no va muy fino.
De hecho que las personas a veces fallan un poquito, porque tampoco está entrenado específicamente para esto.
Entonces lo que vamos a hacer ahora es, como ha fallado un poquito, es vamos a irnos, vamos a volver a la parte de elegir modelo,
y vamos a añadir el modelo de PetNet, que es el de detección de peatones.
Entonces estos son modelos pre-entrenados que tú puedes ir eligiendo según la necesidad de lo que quieras construir.
Exacto.
Y ahora lo que hacemos es lo mismo, pero lo hicimos con el comando menos menos network, le hicimos igual a PetNet.
Entonces ahora vamos a utilizar la red de PetNet para hacer la detección.
Detecta mucho mejor los peatones, ya no hay tantos peatones que se nos escapan, y ya no hay que detectar las plantas ni nada,
porque en este caso está hecho solo para detección de peatones.
Claro, esto podría ser un proyecto de coger tú la Jetson, ponerla en tu casa a lo mejor con un drone y echarla a volar si quieres,
y utilizar toda esta información sin necesidad de estar conectado a internet en ningún momento.
Esto lo puedes poner, yo que sé, en el balcón con una cámara y estar contando la gente que pasa por tu calle.
Esto lo haces en dos patadas, ya está casi hecho.
Vale, ahora vamos a ver otro ejemplo en un vídeo grabado super manualmente, ya ves que tiene mucho Seikin y se mueve mucho.
Vamos a hacerlo de segmentación, que en este caso ejecutamos el script Segnet y le vamos a decir que utilice el Cityscapes
para hacer una segmentación directamente sobre un vídeo que le hemos pasado.
Y aquí ya lo veis que directamente va a diferenciar, pues eso, qué es suelo, qué es vegetación, qué son edificios,
tenemos aquí la tabla de las cositas para diferenciar qué es cada cosa.
No tiene muchísima resolución, pero tú ya con esto puedes hacer un coche que frene.
Oye, vete solo por lo rosa, pero cuando hay algo azul frena, ¿no?
O sea, con esto ya se pueden hacer proyectos de una manera muy sencilla.
Un coche que le he dirigido que vaya por la ciudad y aproveche esto para tomar decisiones.
Qué chulo, y nada, o sea, en cuestión de minutos.
Vale, y luego tenemos aquí, eso ya, si quieres cortarlo, esto fue el ejemplo de la pizza,
que se me quemó muy guayompe, yo pasé de grabarlo otra vez.
Le salió quemado y dije, y dije, eso, pero es que luego también, mira esto, eso está gracioso, el training.
Cuando dije, tuve que hacer 200 capturas y tal y cual, pues está como por aquí, como en la hora 40, ¿vale?
Y ahí se ve a mí poniéndome un salami, otro salami, etiquetando, otro salami, otro salami, etiquetando, ¿vale?
Me ha encantado porque ha ido a buscar el vídeo justo para enseñar que él se pegó ese curro,
está buscando revalorizar esas horas perdidas moviéndose a la misma.
Claro, tú sabes lo que costó esto, y el salami además se iba secando con el tiempo y no detectaba también.
Por ejemplo, aquí se ve cuando tiro uno, va, este le coge, y entonces ahora, está, pum, salami.
Bueno, y a ver, ¿por qué estamos aquí, estas buenas gentes de NVIDIA, en el canal de DotSesV?
Vamos a hablar de una cosa muy guay que va a suceder durante el mes de abril
y que realmente queremos comentar aquí porque os va a interesar.
Este mes de abril va a suceder el GTC 2021. ¿Qué es eso?
Eso es el principal evento que hace NVIDIA todos los años.
Es un evento donde se habla de deep learning, de procesamiento paralelo, de HCI, de gráficos,
o sea, de todos los temas que aquí a la gente de este canal yo sé que os interesa.
Y por primera vez, por motivos obvios, lo que va a suceder es que ese evento va a ser online y gratuito.
No solo eso, sino que también hay ponentes de altísimo nivel de gente que, bueno, seguramente os suene un poco el nombre.
Gente como Joffrey Hinton, Jan Leccan, ¿quién más he visto? Joshua Benjo, Asier Arranz.
O sea, gente de altísimo nivel. Podéis bichear en la página de NVIDIA, podéis buscar todo el programa
y ver qué charlas puede haber que sean interesantes.
Pero de aquí lo que queremos comentaros es una cosa importante.
Y la cosita es que el GTC va a durar desde el día 12 al 16 de abril, pero que el día 12, lunes,
vamos a estar Dot y yo en su canal de Twitch contándolo en directo
y comentando y salseando un poquito sobre las novedades que Jensen nos contará.
Vamos a ver si lleva la chupa de cuero o no. Tenemos que ver si nos compramos una nosotros para entonces.
Podríamos pillarla. ¿Sabes si lo va a hacer de la cocina?
No puedo decir nada, no puedo decir nada, pero algo hay.
Bueno, la idea será que vamos a hacer una retransmisión en directo en Twitch,
vamos a estar comentando todo lo que vaya saliendo y además con alguien que trabaja dentro de NVIDIA,
pues va a ser súper interesante porque podemos pinchar un poquito y sacar más información, yo creo.
Pero bueno, si no con esto os quedáis satisfechos, tenemos cosas para vosotros.
La buena gente de NVIDIA nos ha dado mucho material para dinamizar todo este evento
y para que todo el mes de abril sea un patrocinio de la leche dentro de Twitch.
Y por tanto, vamos a estar sorteando diferentes cositas de NVIDIA.
Por ejemplo, ¿qué podemos sortear?
Pues bueno, tenemos aquí la Jetson Nano de 2 GB que es una cucada,
como ya habéis visto, para aprender inteligencia artificial.
Y vamos a sortear no una, sino 10 Jetson Nano entre todos los que nos veáis en directo.
Correcto, todo el que esté conectado durante el directo en el que vamos a estar nosotros comentando todas las novedades
entra automáticamente dentro del sorteo de cada una de las 10 Jetson Nano que vamos a estar ahí sorteando.
No solo eso, como hemos visto, las Jetson Nano están muy bien para hacer inferencia
y poder hacer vuestros proyectos de Edge AI.
Pero bueno, al final los modelos hay que entrenarlos de alguna manera.
Y se me pone la piel de gallina.
Vamos a sortear, amigos, no una, sino dos tarjetas gráficas RTX 3090.
Madre mía, ¿qué hacer para participar?
Bueno, os voy a dejar abajo en la caja de descripción todos los detalles para participar en este sorteo.
Pero lo principal que tenéis que hacer es registraros al GTC 2021.
Os voy a dejar abajo también el enlace para que os registréis.
Esto es muy importante porque tenéis que acceder a través de ese enlace
para que nosotros podamos saber que venís desde el canal y que por tanto estéis participando en este sorteo.
De las dos tarjetas gráficas, una de ellas la vamos a sortear para la gente que,
además de haberse registrado, haya pasado por Twitter y haya hecho retweet
y me gusta a este tweet que estáis viendo ahora en pantalla, donde anunciaremos nuestro directo.
Y la otra tarjeta gráfica, en esta colaboración de Nvidia con mi canal de Twitch,
se sorteará a todas las personas que se suscriban en Twitch a mi canal.
Ya sabéis que en Twitch las suscripciones funcionan mediante un sistema de pago,
que es una forma de apoyar a los creadores.
Y por tanto podéis utilizar estas suscripciones para apoyarme,
pero durante el Meta Abril también para optar a este concurso.
Las suscripciones de Tier 1 valdrán una papeleta, la de Tier 2 dos papeletas y la de Tier 3 tres papeletas.
Igualmente tenéis que saber que si tenéis cuenta de Amazon Prime,
podéis canjearla por una suscripción gratuita,
o sea que podéis optar también a esta competición sin gastaros ningún duro.
Todas las suscripciones que entren durante el Meta Abril estarán optando a una nueva tarjeta gráfica para vosotros.
Madre mía, ¿eh? ¿Cuántos cacharros me está y tanto?
Cuántas cosas.
Este sorteo está abierto para que participe cualquier persona del mundo, ya sea de Europa, de Latinoamérica, de donde sea.
Y es que al final el objetivo que queremos es petar el evento, es decir,
toda la gente, toda la comunidad de habla hispana que tanto nos interesan todos estos temas de inteligencia artificial, deep learning,
todos estos temas, queremos hacernos sonar dentro de este evento, ¿vale?
Queremos que mucha gente entre de habla hispana, toda la comunidad que está ahí detrás,
y que la gente de envidia de Estados Unidos allí de repente diga,
oye, ¿qué está pasando aquí? ¿Por qué esta gente se mueve tanto?
Y que se den cuenta además que vienen por el canal.csv, eso sería maravilloso.
Tú tienes acceso a Métrica, eso lo podemos saber después.
Bueno, bueno, lo sabremos después.
Si metemos algún servidor lo sabremos.
En cualquier caso, ya sabéis que tenéis una cita el día 12 de abril en Twitch
para hacer esta retransmisión en directo con Asier, hablando de toda esta tecnología tan interesante que hemos visto hoy.
Y ya sabéis que seguiremos con más inteligencia artificial aquí en.csv, que la cosa no para.
Adiós.