This graph shows how many times the word ______ has been mentioned throughout the history of the program.
estamos en directo estamos en directo estamos en directo hola gente hola se me
oye se nos oye bienvenidos chicos y chicas a un nuevo gtc por favor confirmar
en el chat si estamos en directo estamos en que sí madre mía madre mía vaya
comienzo estoy sudando lo que acaba de pasar aquí he tenido que cambiar de
última hora el la torre el pc el mega cpu ya tiene nombre no también está
está ahí dudoso estamos no se oye bien se nos ve bien un poco oscuros a lo
mejor pero estamos en ello tengo a ver una pedazo de torre aquí con tarjeta
gráficas que la gente de envidia me ha prestado 2 a 6000 2 a 6000 no son 4090
a ver qué sale hoy yo no puedo decir nada ojalá salgan las 4090 porque si no
el título de esta casa pues bueno he tenido que cambiar la última hora la
torre porque acabo de llegar justo esta mañana de un viaje de nueva york estoy
a lo mejor si me notáis un poco más despistado que de costumbre que suele
ser habitual perdonadme por ello y he tenido que cambiar la torre a última
hora por eso si falla algo si nos falta algo aquí algún elemento pues avisadme
rápido lo solucionamos pero chicos y chicas estamos a punto de asistir a un
nuevo gtc a bueno el gtc ya comenzado si empezó ayer hubo alguna charita ya pero
la keynote es ahora y será cuando jensen nos cuente cositas y bueno yo creo
este gtc es de los importantes porque se viene el lanzamiento y para envidia
gaming sigue siendo una gran parte se acaba mucho el negocio vino por gaming y
yo creo todavía el negocio tiene una gran parte total el gtc para el que le
pille muy despistado es el principal evento que tiene envidia es bianual creo
que lo he hecho bien que es dos veces al año
tuvimos un evento en marzo lo solemos ver habitualmente en twitch pero esta
vez siendo tan importante y habiendo mucha gente que no da el salto a los
directos en twitch he querido hacer lo que en el canal para que veáis que este
evento mola muchísimo que no lo no lo podéis dejar pasar y que además es
gratis o sea podéis registraros podéis asistir a un montón de charlas no sólo
está keynote a un montón de charlas que son super interesantes de inteligencia
artificial tecnología hardware software gráficos por ordenador un montón de
cosas la última vez lo estuvimos viendo al registrar y hacer la través del
código de ahora ahora explico ahora explico porque me dice registrar así
claro porque ahora que hoy vamos a hablar de 4090 vamos a sortear una 3090
era difícil enviársela antes exacto pero pero bueno este evento mola
muchísimo vamos a estar haciendo a lo largo de esta semana también algún
directo en twitch viendo alguna de las otras charlas no la charla principal
sino alguna de las otras charlas estaremos sorteando créditos del deep
learning institute de deep learning que eso está guay que son cursos que tiene
envidia en directo y también pues si estáis aquí no lo habéis hecho todavía
podéis participar en un sorteo de una tarjeta 3090 no sorteamos nada este año
de hecho no no pero estás atentos a la quinov vale spoiler
cómo participar en el sorteo si no lo habéis hecho ahora tenéis tiempo todavía
hasta que acabe el gtc que es este jueves este viernes a la semana
esto la semana para poder hacerlo los pasos los tenéis abajo puestos en la
caja de descripción es muy sencillo uno registraros al gtc si no lo habéis
hecho ya mal con mi enlace el que está justo debajo no puede ser otro tiene que
ser mi enlace el que pone barra dot ccv segundo hay un enlace a un tweet ese
tweet te va a llevar al todo la información que ha puesto en twitter de
este evento le tenéis que dar retweet con eso yo sabré que habéis participado
en el sorteo y tercero muy importante y seguramente lo haréis lo haréis tenéis
que entrar al gtc y ver alguna de las sesiones ver pues la quinov de hoy ponerla
en directo en pantalla lo podéis ver al lado podéis ver alguna de las que va a
ocurrir a posteriori por ejemplo iba a estar joffrey hinton ya le can
investigadores de inteligencia artificial bastante potentes todo esto lo
podéis hacer entonces tenéis que asistir a alguna de estas charlas
tenéis un montón un catálogo enorme podéis buscar vuestra charla favorita
sólo asistiendo a una de ellas ya estáis participando en el sorteo pero os
recomiendo que echéis un vistazo todo lo que hay porque oye es material
gratuito formativo y esto está a punto de empezar es que por eso voy como una
carretilla eso porque me acabo de meter un tremendo café
se oye bien se se se escucha bien el otro compás mi novio mi novio no te
presentado está fatal nunca lo hemos dicho nunca lo hemos dicho todo puede
pasar aquí nos queremos mucho así ya nos acompaña desde hace muchos directos del
gtc y también para otras aventuras también alguna vez ha presentado alguna
quino de apple también sí la última no pero sí lo cual tenía mucho morbo
porque así trabajan en vida no trabajan apel no trabajan otra empresa trabajan
envidia entonces como nuestro hombre que sabe también mucho de la estructura de
la empresa todo lo que se está moviendo y yo sé que mucha gente interesada aquí
para las 4090 pero hay muchos departamentos súper interesantes
dentro de envidia de hecho en algún gtc hemos hablado incluso de cuántica hacemos
de todo siempre la vanguardia y y nada entonces pues así hoy nos va a estar
como siempre acompañando y esto está a punto de empezar un contador final
vale yo solo quiero que me confirme es que todo se ve bien que se oye bien
vamos a poner algún
a ver si hay algún vídeo por aquí del gtc que nos hable alguien bueno mira
podéis ver gente que va a estar dando charlas un montón de ponencias que va
a ver mira i am interested in pues por ejemplo me interesa no sé deep learning
no esto creo que nos suena en el canal pues tenés aquí sesiones un montón de
sesiones en el catálogo para ver qué charlas os interesa más a mí por
ejemplo nerf siempre siempre voy a por nerf no hay nerf este año por
neural neural fields si no apago directo
no hemos hecho nada de neural fields no no claro claro neural rendering a lo mejor
hay solo 10 de hecho nojo porque en 10 sesiones algo se tiene que ver
igualmente no sé si tienen que estar publicados todo el catálogo
transformers transformers no tenemos algo habrá a ver déjame que busque
curioso por su nombre de peper que es el instante instante en gp no bueno va a
haber que hablar con el equipo de nerf a ver qué están haciendo que han
estado haciendo este verano pues han salido cosas guapas de nerf
vale entonces esto está a punto de empezar estamos en una charla por cierto
eso la podemos que sobre y exorin está graciosa está divertida ha hecho
ejemplos pero te busco por hacer y no debería salir a porque tienes un montón
de filtros que igual sí que hay de nígual sí sí puede ser puede ser claro
si tienes aquí la primera vale si es la primera es el jueves a las no acuerdo
pero lo miraré luego en el horario español vale vale si si tenemos si tenemos
español ya decíamos que raro learning models for real-time y el gráfico
está por ejemplo me interesa por ejemplo que hablan de dlss de un montón
de cosas robótica usando neural environment esto está guay también está
guapa con q&a el jueves seguramente veamos algunas charlas en en directo a
través de twitch esta vez maravilloso se ve en falta zoom queréis ver las
caras más de cerca falta zoom de la pantalla no de nosotros evidentemente yo
pensando aquí que podía ser por nuestras caras y y nada pues hoy se viene una
quino normalita vale una normalidad un anuncio gordo que puede pasar pues yo
he hecho de menos al gens en virtual a ver si vuelven a hacer algo un poco
interesante he hecho de menos que usen maxin en
directo sabes para que las herramientas que tenemos pero vamos a ver sacaron
algo del horno no creo yo creo que el horno ya quedó en la época de la
pandemia no de que cuando tenía que estar en casa y no le queda otra que irse
a la cocina a sacar cositas de no no no no no escenario virtual a lo mejor vamos
a ver a ver espero que hayan actualizado un poco el vídeo de a y a que es con lo
que se suele empezar es como el este y nada quedan dos minutillos a ver si me
puedo conectar yo al audio también si lo tienes ahí
voy a subir esta pequeña historia rápido claro es muy gracioso el tema de
con el covid se cambió el formato de las presentaciones de hecho el gts se
convirtió en un evento abierto lo cual pues es algo bueno que nos llamamos de
todo lo que pasó y eso se hizo famoso porque lo de las presentadas de la
cocina exacto entonces gensen salía de la cocina a su casa que creo que no
sería la cocina a su casa yo creo que sí yo diría que sí o bueno así no tiene
nombre te pongo el enlace de youtube y directamente la gente si
1 0 entramos siempre la última hora pero lo conseguimos se oye bien
madre mía vaya contra el reloj que ha pasado
ojo y subtítulos
i
cloud services to extend the reach
I want to thank all the sponsors, partners, researchers, developers and customers
who join us to make this event amazing
Welcome to GTC
I want to show you something amazing
Racer X is a fully interactive simulation
built with NVIDIA Omniverse
Racer X es físicamente simulado
las luces, las reflexiones y las refracciones son raytraced
nada es pre-rendero y crecido
las partes y las puertas de los autos son modeladas individualmente
sus propiedades físicas afectan la dinámica del coche
las cosas en el entorno no son propias estáticas
sino cuerpo rígido, ropa y simulaciones fluidas
el fuego, el fuego y el humo son simulaciones volumétricas
Racer X es una simulación
los futuros juegos no tendrán mundos preparados
los futuros juegos serán simulaciones
Racer X está funcionando en una sola GPU
Racer X está funcionando en una sola GPU
la cosa es que saquen la demo
Racer X está funcionando en una sola GPU
la cosa es que saquen la demo
Racer X está funcionando en una sola GPU
vamos a ver
es muy bien
Vale, decidme ahora como se lo oye al señor Juan.
El benchmark con Cyberpunk.
El meme.
Si le oye bien a él estamos perfectos.
Todo bien, perfecto.
Ojo, ojo, ojo.
Que van a hablar de renderizado neuronal.
Van a saco hoy.
Hoy tienen prisa.
¿Esta imagen está generada con IA?
¡Esta imagen está hecha con IA!
¡Tiene toda la pinta!
Van a sacar su propio modelo de Text2Image.
A ver, ya toca, ¿no?
Además era un estilo que no había visto en otros.
Os subo un poquito ahora para que escucháis bien al señor Juan.
Y lo voy bajando si vemos alguna música.
Arriba ponía Mid-Journey, no lo he visto.
Me he quedado con la imagen, claro.
¿La arquitectura de Love Lace?
¿La habían presentado ya?
Habían presentado...
No.
O sea, el nombre se me suena de...
¿No te sonará por Grace?
O sea, la otra vez fue Grace.
No, no, no, Love Lace, porque estuve leyendo un poco de lo que iban a hacer y la gente ya lo sabía.
Tenemos Grace, que es otro tipo de procesador, por Grace Hooper, que es otra mujer en tecnología, pero...
Va a hablar un monte de renderización neuronal, seguro, ¿eh?
Claro, sí, sí.
Por lo que está diciendo que el re-tracing es difícil de cargar.
Pero en la re-nerf sí es paralelizable.
Y el RTX, la re era de...
Re-tracing, re-tracing.
¿Y ahora qué van a hacer?
Re-tracing, NTX.
A ver.
Re-NX sería guapísimo.
Re-NX, o algo de las cosas así.
Render en neural.
A ver.
Somos mil personas.
Somos mil personas.
Mucha gente muy fan del DLSS.
El DLSS ha hecho que no tengas que actualizar la gráfica en unas pocas generaciones.
Curioso que Nvidia...
Claro, como no había muchos toques, había que apretar, había que hacer algo.
O sea, no es un...
Correcto.
A ver.
A ver, sigue flipando que el re-tracing en tiempo real funciona.
Entonces que magia negra 6 por debajo.
Hace poco vi un ejemplo con un agujero negro en tiempo real con toda la física.
Era una locura.
Y claro, luego, sin embargo, la película de Interstellar...
Sí.
Tardó meses.
Claro.
A ver.
A ver.
A ver.
Ya estamos, ya estamos, ya estamos.
Perdón, perdón, perdón.
Nos hemos quedado mudos, sí, por los 101 frames por segundo.
O sea, pasar de 30 a 101 solo con software es bastante loco.
Tienes que comprarte tres gráficas nuevas.
¿Todavía?
Cuatro veces más.
Fijaros como DLSS tiene que hacer dos cosas que expliqué en el canal hace ya un par de
años.
¿Estamos muteados todavía?
No, no, no, ya está, ya está.
El mute porque está...
Bueno.
Pues está bien, está bien.
A ver.
Vale.
A ver.
Expliqué dos cosas en el canal hace dos años, tres años y todavía siguen vigentes.
La solución y superfluidez que es lo que hace DLSS.
El generar más pixeles en cada fotograma y generar fotogramas intermedios entre cada
fotograma.
Somos una burrada hacerlo en tiempo real.
A ver que el benchmark.
Cyberpunk otra vez.
Ahí viene.
Ojo.
24.
Estos sin DLSS...
Ahí le cuesta un poquito.
Con DLSS3.
Toma ya.
Claro.
Lo estamos viendo en un video.
Sí, en el directo no lo...
No sé si se apreciará, pero...
Toma.
Ahora.
Tienen que haber hecho con un flight simulator en VR.
O sea, cinco imágenes por segundo.
Pero bueno.
Está haciendo una especie de ley de Moors.
La ley de Juan que...
La ley de Juan que la comete en el canal.
Me acuerdo, me acuerdo.
Anda, mira.
Te gusta, ¿eh?
Sí, esta me gusta.
Es que este está...
Es un juego jodido.
O sea, si esto funciona bien, van a vender 4.090 como churros.
Por favor, que tenga soporte en realidad virtual.
Hombre.
Sí, concluye.
Si consigues reducir la carga de la tarjeta gráfica, con el DLSS3 puedes ampliar el
field of view, ¿no?
Sí, sí.
DLSS en las primeras versiones no tenían soporte en realidad virtual.
Claro que no reconoce tanto el
Ahora que hay música se nos irá menos, pero no pasa nada, chicos, disfrutad de la música, que es muy epica.
Toma ya... lo guapo.
Burkhalifa.
¡Ooooh! Esto va a ser divertido.
Es que este juego es muy divertido.
A ver, a ver.
No, van a hacer el remake en RTX.
Es que era un juego para pensar, muy divertido.
Es muy rejugable.
Hostia, la música.
Y el cubo era muy gracioso.
Te decía...
Hola.
El cubo de amor.
La cosa es, cuando calculan el ray tracing, los rayos pasarán por dentro de los portales.
Es que son muy locos, ¿eh?
Hostia, parecía así.
Sí, sí, sí, sí, claro.
Estaban pasando.
Iluminado al otro lado.
Claro.
Muy loco.
Chicos, portal 3 confirmado.
No, broma.
Portal DLSS3.
Mira que guapo.
Mira que guapo, ahora.
Joderazo.
Las texturas vas a tener que trabajar un poquito más.
Bueno.
Pero mira, si yo...
Un remake de texturas y ya estás.
Muy clicirito.
Este era muy divertido.
Joderazo.
Buena excusa para jugarlo de nuevo.
Sí, sí, sí.
Free.
Vale, vale.
Gratuito.
Es un mod, claro.
Lo hicimos con Omniverse.
¿Qué? Espera, ¿hola?
¿Qué hicieron con Omniverse?
Oh, wow.
Qué guapo, la super resolución.
Directamente.
También mirad cómo recuperamos un montón de detalles de la nada.
De la nada.
O sea, qué loco.
Es muy loco.
Pero además tiene pinta de que no calcula super resolución de la pantalla final, sino de cada uno de los mapas que hacen el 3D.
Porque sabía cómo hasta la especularidad se veía recuperada.
Los normals y todo aquí.
Los libros.
Todo, todo.
No, el libro ha cambiado totalmente.
Hostia.
No, pero aquí han cambiado los modelos.
Vale, vale, vale.
Hombre.
Qué guapo.
Me encantaba esta pantalla del portal.
Eso es interesante.
Hacemos fácilmente.
Y creas una herramienta para modders y te traes a toda la comunidad.
Claro.
De golpe.
Hostia.
No he visto a los fans de la agra.
No sé, pero había mucha barra.
Había mucha barra.
Había barra para arriba.
Hostia.
Me ha tocado a mí también contar la torre.
Ya, ya.
Con nada.
Uf.
O sea, la premisa inicial me ha encantado.
Juegos simulados al 100%.
Claro.
Esto lo juntas luego y vas a ir diciendo.
Bueno, ahora quiero un consejo.
Ahora quiero un consejo.
Ojo, ojo, ojo, ojo.
Que lo tenemos aquí.
Ojo.
Precio, precio.
Eh, eh, eh.
¿Barata?
1600.
Decía la gente que si hubiera 2500, si no.
Ojo, que no.
12 de octubre.
Vale.
24 gigas de memoria.
Está muy bien.
Estaba hablando que podía ser 48.
Espero que haya una versión de 48.
No lo espero y no tengo ni idea, pero ojalá.
Porque 24 no se aleja mucho de lo que era la 3090 de memoria.
Eh, yo la, yo la Titan tengo 12.
Si no me equivoco.
No sé yo.
Creo que era más.
Creo que eran 24.
24 en la Titan RTX.
O sea.
Mmm.
Estaba, está bien, eh, esa memoria.
Pero bueno.
Si bien sería.
Claro.
Es que la 3090 siempre ha sido una tarjeta para...
Ya has visto.
Lo primero que han hecho es decir la velocidad.
Porque los que van a comprar la 4090 son los amantes de chupar simuladitos.
Porque son los que más la necesitan.
Porque se va muy justo.
Coño, creo que era una tarjeta para Deep Learning.
Mira, mira, mira, mira cómo la enseña.
Va a volar esa tarjeta de corche.
Va a volar.
Vamos.
Yo estoy pidiendo la mía.
Aquí está la 4080.
La 4080.
Y los 16 fibros.
Van a sacar una tarjeta diferente con más memoria para la gente de Deep Learning.
Segurísimo.
Sí, seguramente, pero esa sería.
Ya.
O sea, pues anunciarán así de mí.
Bueno, ¿cómo lo veis?
¿Cómo lo veis, chicos?
¿Nos lo han echado a la cara así de golpe, eh?
Nos lo han guardado.
Está en final.
¿Nos decimos los errores?
Ah.
Sí, seguro.
Vamos a ver.
Claro.
Eso sí es interesantísimo.
Qué guapo.
Sí, mi idea sería una 4090 con 48.
O sea, es que la 3090 en su momento se desmarcó mucho de las otras tarjetas y la principal diferencia
era la cantidad de memoria que tenía, que ahora estamos viendo que es importantísimo
para todos los modelos, generadores de imágenes y tal.
Ojo, 24 gigas es una burrada.
¿Puede ir una titán ahora?
Exacto.
Eso fue lo que pasó.
24 gigas es una burrada, pero pensaba que iban a ser más todavía, eh.
Pensaba que iba a llegar a 48, pero aún así, el precio está muy bien.
El precio es espectacular, porque lo han dejado creo que al mismo precio que salió la 3090.
No, 1500.
Que yo creo que es más importante eso ahora mismo, porque es cierto que el mercado profesional
de deep learning tiene otras opciones.
No tiene...
Es el Racer X, ¿no?
Sí, sí, sí.
Esa demo si la vemos.
Chicos, esto es el nuevo Unity.
Hay que aprender esto.
Para hacer juegos.
Es que además...
Deep learning.
Eso era la generación de modelos.
Era la generación de modelos.
Es que esto hubo un paper de Nvidia.
Sí.
O sea, tener...
Va a integrar todo.
Exacto.
Todo.
Precente que Omniverse se va a convertir en el centro neurálgico de todas las publicaciones
que veis en el canal, de deep learning, simulaciones físicas, lo que sale también en 2-Minute
Paper.
Todas estas cosas...
Se integran.
Van a estar integradas aquí dentro.
Claro.
La Tierra 2.0, que en teoría es el objetivo.
La Tierra 2.0.
Simular el planeta.
Eso es para 5090, así tal.
Guapísimo.
Para convicción autónoma, simulación de trayectoria antiguo que era de catones.
Para gemelo virtuales.
Los típicos robots que hacen el juego, que era una publicación original de PENESMA.
Que guapo, mecánica de impunidad.
Spectacular.
O sea, se viene una década de revolución en el mundo del 3D, que va a ser muy guapo,
porque lo que está pasando ahora con Stable Diffusion en dos dimensiones, va a ocurrir
en tres dimensiones.
Va a ocurrir, ya lo sé.
Ya sé que hay gente que está entrenando modelos de ese estilo, así que, que guapa
la simulación que hay.
¿Y cuál era el nuevo Unity?
Esto es el nuevo Unity.
Razer X, lo que estás viendo.
Vámonos.
A Unity todavía no tiene sustituto.
Metaverse, Metaverse, ahora sí se dice Metaverse, ¿has visto?
Ahora sí, eso es un podía.
Uno es real y otro no, en la izquierda no es real, creo, pero cuesta, y aquí también,
bueno, aquí se nota un poquito más, pero bueno, ojo, bueno, bueno, bueno, bueno, hey,
estaba más sucio, creo, había un sucio más en el virtual, pero nos van a enseñar
una demo que ya enseñaron en otra ocasión, seguramente, que era el de con voz importar
a algún objeto y decir, quiero un árbol, pero ahora puede ser mucho más guapo, si
han metido tipo, sería bueno, quiero un árbol que sea como generando la luz, ahí.
Toda la presentación que estamos viendo hoy está hecha en Omniversal, él está metido
en un plato virtual, las cosas que salen en 3D, eso parece, ah, él es real, actualización
importante.
No, él sí, claro, él es real, pero es un vídeo importado dentro del entorno, sí.
Ojo, ojo, modelo de difusión, vámonos, esto es la bomba, van a meter stable diffusion
también, porque puede, bueno, chicos, creo que ha llegado el momento de empezar a usar
Omniversal, porque ahora sí que tiene cosas chulas, que guapo, vale, sí, sí, sí, sí,
um, guapo, guapo.
Replicator, que es usado para generar datos sintéticos para entrenar autobúses, robóticos y todos los modelos de visión de computador.
New Omniverse JT Connector. Esto es grande.
Siemens inventó JT, el lenguaje estándar de control del ciclo de vida del producto y el formato de interoperabilidad de sistemas CAD como NX, Creo, Katia, New Edge, JT Connector, Open, Industrial y Manufacturing.
Otra vez es como más... faltaba, falta gaming.
Lo entendí.
Lo hemos comentado en GT6 anteriores, una de las profesiones que veremos en los próximos años será la de creación de gemelos digitales, digo los próximos años, pero ya, está surgiendo, crear simulaciones virtuales de parte del mundo real.
Con el objetivo de poder hacer, si quieres hacer un proceso de industria y lo quieres simular, pues lo haces en tu gemelo digital.
Había una animación en la que estaba haciendo el cosido del volante.
Lo único real es el amor. No, no, el amor también lo simula. Hay un módulo que se llama amor TX.
Amor TX, amor TX.
Amor en tiempo real, está volviendo. Amor en tiempo real suena como una novela de Papa. Se lo voy a pasar a GPT-3.
Hecho por el contexto, Nvidia ha conseguido generar una nueva herramienta llamada amor TX en esta parte.
Lo que dice John King, yo también me he quedado con esa pregunta en la cabeza un poco.
De lo de los mods, ¿no?
Sí, porque han dado a entender que capturando el juego ya entiende el modelo.
Habría que verlo.
Lo investigaremos.
Podéis buscar charlas sobre esa tecnología en concreto y tendréis más información durante el GTX.
Es como muy rápido por las tarjetas gráficas, me ha sorprendido.
Hay muchas cosas que contar en poco tiempo, yo creo.
O sea, lleva media hora.
Y no ha callado.
No, no.
Hombre, siendo un bot.
Por eso hay un GTX cada seis meses.
Ya.
Hay demasiadas cosas. Siempre es uno al año.
¿Cuándo crees que tardaremos en que las guías generen diseños 3D?
Con Nerve podríamos decir que ya estamos ahí, pero no son mayas tridimensionales.
Pero te diría que en un año o dos años vamos a ver cosas muy espectaculares.
Va a haber una explosión exponencial como ha ocurrido también con la generación de imágenes.
Yo creo que antes de fin de año tenemos una mini serie experimental tipo Pixar hecha con IA.
En plan experimental.
Como mi último vídeo.
Como mi película.
Antes de fin de año.
Es que no sé, hay que decir algo a mi suprende, me sale algo antes.
A la semana que viene lo tenemos.
Este es el modelo digital para optimizar la ubicación de las células de telefonía 5G.
Que guapo.
Ya me están pidiendo 4090.
Aquí también tengo hueco para una.
El servidor se tiene que montar aquí.
Que guapo.
Estamos viendo casos de uso del tema de Universe.
Es un digital twin de la tienda entera.
Venga.
Derecha y izquierda.
Es muy loco.
Hay empresas haciendo estas cosas.
Es un buen mercado.
Ferroviarias.
Esto va a ser, no van a amar, los que le gustan los simuladores de trenes van a tener directamente el gemelo digital.
Como siempre, el tener un entorno simulado lo que te permite también es tener datos simulados sintéticos para entrenar tu modelo de Machine Learning.
No vas a encontrar un dataset de troncos en una vía de tren, pero lo puedes simular como acabamos de ver.
Me gusta mucho la simulación de túnel.
De fluido.
No es sencillo.
El precio de las tarjetas me sorprende porque también se estaba diciendo que por el tema de la inflación, que todo está subiendo precio, que Sony ha subido el precio de las consolas, que por todos los problemas con los chips iba a estar por encima de los 2.000.
Joder, ha salido a 1.599.
Pocas bromas.
Creo recordar que era el precio de salida a la 3.090.
Con la diferencia de que tendría que ver bien los números, pero vale.
Bueno, me dicen por aquí que la 3.090 salió a 1.000 dólares.
Que es el precio en el que está la 3.080.
La 4.080 ahora.
Pocito menos, la 4.080.
Está Unity, sí, está Unity en realidad.
Pero metiendo creo en el stack al DLSS3, es decir, también no creo que sea solamente la capacidad de la tarjeta, sino también usando todas las mejoras del software que están metiendo, que es una pasada porque si llegan a la serie de 3.000 también, pues oye, todos ganamos.
Puede ser que DLSS3 sea solo por software, pero a lo mejor no es compatible con el hardware de las 3.000 por algún motivo.
Habrá que verlo, habrá que verlo.
A ver si me voy a meter al server, sí.
Este es nuestro tema, chicos, aquí controlamos todos.
Estamos 1.400 personas conectadas.
Básicamente lo que están diciendo es eso, que va a haber los data centers enormes controlando todo el tema de conexiones en un gemelo digital y luego los diseñadores, creadores y gamers y todo estarán conectados a un gemelo digital, pero no lo gestionan.
Con el tema de conectarte a un gemelo digital está bien, tienes uno, pero cuando hay 1.000 personas conectadas a un gemelo digital, ojito, todos cambiando cosas, son muchas actualizaciones.
Concurrencia, concurrencia.
Tienen un componente de networking fuerte esto.
Es lo que no se ve.
Pero es gordo.
En Villa por eso compró Melanox, una empresa de networking brutal, la más grande del mundo.
Se ha hecho Hipervehículos. ¿Qué demonios es un Hipervehículos? Se llama Nivera.
Está guapo el nuevo Gran Turismo.
No conozco esta empresa para nada.
Están guapo los coches.
Aquí los diseñadores conectan al Núcleo Núcleo de Omniverse, su motor de database compartido.
Con los workflows de USD pueden agregar datos de fidelidad de full CAD desde sus herramientas favoritas, incluyendo Autodesk Alias, Houdini, Adobe Substance 3D Painter y Omniverse Create.
Cada diseñador trabaja con sus computadores de RTX individuales o con las aplicaciones de Omniverse de OVX en el cloud.
Una vez completada, el Núcleo Núcleo de Omniverse de Omniverse Create conecta a varias personas de un equipo y puede trabajar sobre el mismo modelo.
La Nube tiene que tener una RTX que te está mandando el rendimiento en tiempo real.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.
La voz es una IA.