logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Hola chicos y chicas, bienvenidos a DOTCSV, tu canal sobre Inteligencia Artificial que
te trae todos los temas de actualidad. Hacía tiempo que no nos sentábamos a hacer un
Data Coffee, hace ya creo que dos meses desde que subí el último vídeo de este formato
y bueno, y esto se debe a que por una parte he estado subiendo otro tipo de vídeo de
por medio, estaba el vídeo de Sofía o el vídeo de colaboración que hice para el canal
usted está aquí, pero también pues quería buscar una forma de reestructurar esta sección
para poder acomodar dentro de ella algo que les propuse hace ya un par de Data Coffee
y es una sección de noticias. Si recuerdan yo les propuse si les gustaría ver dentro
del canal algún apartado donde fuéramos comentando alguna de las últimas noticias que han sucedido
en el mundo de la Inteligencia Artificial y muchos dijeron que sí, así que hoy por fin
después de dos meses de haberles propuesto esta idea me congratula a anunciar que el
canal va a coger esta sección de noticias y va a ser algo que iremos haciendo periódicamente
cada mes y va a ser algo como lo que vamos a hacer hoy, será un Data Coffee que veremos
a principios de cada mes y donde recogeremos aquellas noticias, aquellas historias que
a mí me han parecido interesantes, relevantes del mes anterior. Así que nada, estamos comenzando
el Meta Abril, así que toca hacer repaso de las noticias más interesantes del campo
de la Inteligencia Artificial del Meta de Marzo. Comenzamos.
Si dentro del campo de la Inteligencia Artificial es necesario contar con grandes conjuntos
de datos que nos permitan entrenar y diseñar mejores modelos de Machine Learning, es una
buena noticia ver que Baidu ha liberado con licencia Open Source el mayor conjunto de
datos dedicados para el entrenamiento de vehículos autónomos. El conjunto de datos liberados
se encuentra en la plataforma Apollo de Baidu bajo el nombre de Apollo Escape y permite
a cualquier desarrollador poder hacer uso de estos datos para entrenar modelos de conducción
autónoma. El dataset ofrece en total unas 200.000 imágenes de alta resolución entre
las que tenemos capturas RGB con anotaciones por píxeles del contenido semántico de la
imagen. Las diferentes clases en las que la escena es segmentada incluye coches, bicicletas,
peatones, edificios y hasta un total de 26 elementos diferentes. Junto a esto se incluye
también las correspondientes nubes de puntos tridimensionales capturadas por los sensores
del vehículo. Además, el dataset cubre diferentes tipos de entorno, tipo de tráfico y condiciones
metrológicas. Sin duda, un recurso de gran valor tanto para desarrolladores como para
investigadores y que nos permitirá avanzar en el desarrollo de mejores modelos con capacidad
de entender el entorno que les rodea. Si en vez de trabajar con vehículos autónomos
estás interesado en la exploración espacial, estáte enhorabuena porque Google ha liberado
tanto su código fuente como los modelos preentrenados de su proyecto AstroNet.
Como muchos recordarán, el pasado mes de diciembre nos entramos en que la NASA y Google
estaban colaborando en un proyecto conjunto para, mediante el uso de técnicas de Machine
Learning, descubrir nuevos exoplanetas. La noticia saltaba al confirmarse que, gracias
a estas técnicas, se había podido descubrir dos nuevos exoplanetas, uno de ellos orbitando
el sistema Kepler-90. Ahora Google ha liberado el código fuente y los modelos preentrenados
utilizados en este proyecto, permitiendo que si cualquiera pueda iniciarse en la búsqueda
espacial. Los datos a analizar se corresponden a las
trazas de luz capturadas por el telescopio Kepler y se busca identificar las leves variaciones
lumínicas cuando la luz se ve interrumpida por algún fenómeno espacial. Estos fenómenos
pueden ser variados y esta haría del modelo de Machine Learning el procesar todas estas
señales lumínicas e identificar aquellos patrones asociados a la órbita de exoplanetas.
El modelo que ha pasado de nominarse AstroNet está implementado en TensorFlow y cuenta con
una documentación muy completa que recomiendo leer si estás interesado en conocer más
sobre este sistema. Un equipo de investigación de Microsoft ha
reportado haber conseguido un importante logro en su sistema de traducción de chino-inglés.
El logro conseguido ha sido la paridad humana en la tarea de traducción, es decir, conseguir
que el sistema pueda traducir de chino-inglés con una precisión similar a la humana.
El reto de traducir noticias de un idioma a otro es un problema de computación de gran
complejidad y esta dificultad se ve incrementada cuando uno de los idiomas es el chino. Por
eso mismo el objetivo alcanzado por Microsoft de lograr un nivel de traducción equivalente
al de un traductor profesional humano es verdaderamente relevante.
Como es habitual en los sistemas de traducción modernos, en esta ocasión se han utilizado
algoritmos de deep learning, junto a otras técnicas desarrolladas por Microsoft para
este proyecto. Gracias a estas técnicas, detalladas en la
publicación original, han conseguido mejorar la precisión de su sistema por encima del
estado del arte. Estas mejoras, además, no son exclusivas al dominio de la traducción
de noticias, con lo cual podrán ser utilizadas en otros campos diferentes.
Habrá que comprobar si estos resultados tan sorprendentes se reproducen de igual manera
al utilizar otro dataset y en otras tareas de traducción.
La siguiente noticia se la quiero agradecer a CRP94 que me la hizo llegar a través de
Twitter. Se trata de una publicación del equipo de Google Brain en el que han conseguido
que una inteligencia artificial pueda aprender a realizar una tarea a través de la recreación
mental que ha aprendido esa inteligencia artificial previamente.
Los humanos cuando nos enfrentamos a la realidad, no percibimos toda la información que compone
nuestro mundo, sino que filtramos y procesamos aquella información capturada por nuestros
sentidos y construimos un modelo mental del mundo que nos rodea.
Gracias a esto, podemos comprimir mucha de la información espacial y temporal que percibimos
y hacemos uso de esta representación simplificada como un simulador mental sobre el que basar
nuestros futuros actos.
Esta misma idea es la que ha implementado el equipo de Google Brain. Se ha diseñado una
inteligencia artificial entrenada mediante aprendizaje reforzado para maximizar la puntuación
en diferentes juegos de la plataforma OpenAI Gym. El sistema diseñado cuenta con un modelo
de visión encargado de codificar y abstraer toda la información visual percibida del
videojuego.
Con esta información, el sistema aprenderá utilizando redes neuronales recurrentes a
predecir cuáles serán los futuros estados del juego y podrá utilizar esta información
para decidir qué acciones futuras tendrá que tomar para poder ganar.
Con esta arquitectura, los investigadores pudieron comprobar que el sistema podía resolver
diferentes pruebas con mayor puntuación que otros métodos.
Pero no solo eso, puesto que la inteligencia artificial había aprendido su propia representación
interna del juego, también se probó a utilizar dicha representación como un simulador en
el que la gente podía entrenarse por sí mismo.
Esto sería el equivalente a un piloto de Fórmula 1 que imagina un entrenamiento a
partir de los recuerdos de su conducción en el pasado. El resultado de estas pruebas
es que efectivamente la gente pudo entrenarse dentro de su simulación interna, y este conocimiento
aprendido le sirvió para obtener una buena puntuación en la tarea a realizar. Sin duda
increíble.
Tenéis en la descripción del video un enlace al artículo, el cual recomiendo bastante
leer.
La empresa de vehículos autónomos Waymo ha anunciado que aplicará la tecnología
utilizada actualmente en sus coches autónomos para realizar un proyecto piloto con camiones.
Waymo es actualmente una de las grandes empresas que compite por el mercado de la conducción
autónoma bajo demanda. Tras introducir la primera flota de coches autónomos en las
calles de Phoenix, ahora Waymo quiere pasar un desafío más grande. El proyecto piloto
utilizará camiones autónomos para resolver operaciones de logística, sirviendo para
el transporte de material pesado a los centros de datos de Google. Todas estas pruebas se
realizarán con conductores humanos en la cabina que supervisarán el correcto funcionamiento
de la prueba.
Con esto Waymo continúa sumando kilómetros y nos acerca cada vez más a un futuro de
transporte autónomo.
El proyecto Gender Shades, publicado por el MIT Media Lab, ha estudiado la aparición
de sesgos raciales en sistemas de reconocimiento faciales basados en Machine Learning. El resultado
de este estudio demuestra que todavía queda mucho trabajo que hacer en estos sistemas.
En el estudio se probaron diferentes productos comerciales de reconocimiento facial de diferentes
marcas sobre un conjunto de imágenes de hombres y mujeres con diferente color de piel. Mientras
que los productos de las compañías eran capaces de detectar un rostro con una alta
precisión media, se comprobó que estos detectaban rostros masculinos con entre un 10 y un 20
por ciento menos de error que al utilizar rostros femeninos.
Esta diferencia también era observada cuando se comparaban los rostros de piel clara y
rostros de piel oscura, con un menor error para el primer grupo. La mayor discriminación
se produce en la intersección de grupos de mujeres con piel oscura, con una diferencia
de error que alcanza el 34%.
Este estudio demuestra la existencia de sesgos en productos basados en Machine Learning,
y que no son más que el reflejo de aquellos sesgos pertenecientes a nuestra sociedad,
que al final acaban siendo introducidos en nuestra propia tecnología.
Es deber de toda la comunidad en torno a la Inteligencia Artificial en cuidar que estos
sesgos no se reproduzcan en los sistemas que diseñamos para que así esta tecnología
pueda ser utilizada sin ningún tipo de discriminación.
El equipo de DeepMind ha publicado un nuevo trabajo en el que enseñan a una Inteligencia
Artificial no a generar una imagen, sino el proceso de cómo pintar una imagen.
Estamos acostumbrados a ver algoritmos capaces de generar imágenes artificiales de manera
realista. Sin embargo, en esta ocasión el equipo de DeepMind ha querido probar algo
diferente y ha diseñado una Inteligencia Artificial que aprende a partir de observar
una imagen a recrear las pinceladas utilizadas, es decir, aprender el proceso de pintar.
Mediante aprendizaje reforzado, el agente aprendía a generar instrucciones con las
que podía controlar la posición, el tamaño y el color de un pincel en un entorno de pintura
digital. Las obras generadas por el agente deberán de ser evaluadas por un agente discriminador
en una arquitectura similar a las que podemos encontrar en las redes generativas adversarias.
La diferencia con otros estudios similares es que en este caso el sistema diseñado por
DeepMind pudo aprender a pintar por sí misma sin necesidad de supervisión humana, lo
cual hace el proceso de entrenamiento mucho más ágil.
Lamentablemente el pasado mes también fue noticia la Inteligencia Artificial debido
a dos accidentes de tráfico mortales en los que se vieron involucrados vehículos autónomos.
Los accidentes involucran a vehículos de las compañías Uber y Tesla, aunque hay que
señalar que se tratan de casos muy diferentes. En el caso del accidente de Tesla, la compañía
ha reportado tras acceder a los datos de la computadora del vehículo que en el momento
del accidente el sistema Autopilot estaba activado y que al piloto se le avisó repetida
pese a que volviera a tomar el control del vehículo. Pese a las advertencias, el piloto
no tomó el control del vehículo, pudiendo ser el motivo que desencadenó el accidente.
Por el contrario, el atropello producido por el coche autónomo de Uber contiene más incógnitas.
Tras publicarse imágenes del accidente se puede ver como una persona cruza la carretera
de forma imprudente cuando el coche viaja a alta velocidad. Aunque por las imágenes
pudiera parecer que el atropello era inevitable debido a las malas condiciones lumínicas,
la realidad es que esto no debería afectar a los sensores de profundidad LiDAR del vehículo.
Sin embargo, por lo percibido en el vídeo, no parece que haga ninguna maniobra para
evitar el obstáculo, apuntando a un posible fallo del sistema de conducción autónoma.
Dos ejemplos que demuestran que esta tecnología está aún todavía en sus primeras etapas
de maduración y que hay que invertir más tiempo para que estos accidentes no se vuelvan
a producir.
Y hasta aquí el primer vídeo de hoy, la primera sección de noticias del canal. Es
un poco un vídeo experimental, todavía estamos en fase beta por así decirlo, así que me
gustaría saber mucho vuestra opinión de si les ha gustado este formato, si les gusta
este tipo de vídeos, si han visto que está todo correcto. Lo pueden dejar abajo en la
sección de comentarios. También si ha faltado alguna noticia, si han echado en falta alguna
historia interesante relacionado con el Machine Learning o la Inteligencia Artificial durante
el mes de marzo, lo pueden compartir aquí abajo y yo intentaré hacer subir esos comentarios
para que también sean visibles y todos podamos estar mejor informados.
Por mi parte nada más, recordar que hay habilitado en el canal un Patreon. Actualmente este canal
ya cuenta con 10 Patreons que están financiando económicamente la existencia de este canal,
lo cual eso es maravilloso. Recordar también que si quieren ayudar pueden hacerlo compartiendo
por redes, pueden hacerlo compartiendo con gente que le pueda interesar este contenido.
También pueden hacer, dejando abajo, un like. Vamos a intentar a ver si llegamos a una meta
de no sé... 1000 likes. Si les gusta este formato quiero ver muchos likes en el contador
que eso siempre ayuda a visibilizar el canal. Y si les gusta el contenido y es la primera
vez que están por aquí pueden suscribirse a darle a la campanita súper importante para
que siempre les lleguen todos los avisos de los contenidos que voy subiendo.
Por mi parte nada más, soy carlosantana.csv, me pueden seguir por redes sociales por aquí,
y nada, nos vemos en el próximo vídeo.