logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

¿Estamos dentro? ¿Estamos en directo? Hola chicos, chicas, ¿qué tal estáis? Bienvenidos
a DotCsv hoy, directo especial. Pero Carlos, no sube vídeo, no sube vídeo. Ya os dije,
estoy de mudanza, estoy en un mes caótico donde pedí por favor al mundo que no saliera
GPT-4 y explotó. Pero bueno, estamos en un mes donde me comunico con vosotros a través
de directo, algún vídeo va a ver, pero bueno. Este directo, lo teníamos apalabrado este
directo, es un directo especial porque no es la primera vez que estamos aquí, que
estoy tan acompañado aquí como me encanta estar cada vez que estamos con el envidia
GT-6, con Asier. Aquí estamos. Aquí estamos, bien, bien, otra vez. ¿Qué tal está surfando
la hora de la hía? Madre mía. Madre mía. Madre mía. Llevas aquí media hora y no hemos
parado a hablar de todo, de lo que está pasando. Todo el mundo quiere hacer cosas nuevas, te
cuentan ideas para montar, en dos días desaparecen porque ya las grandes son grandes. Así estamos.
¿Qué te ha abrumado? No sé, estoy pensando en montar una cafetería en Malasaña. ¿Una
cafetería? No es broma. ¿En serio? No sé por qué me lo creo. ¿Cómo le llamarías?
No tengo que pensarlo, pero si no ya lo consultaré con Datacoffee, está libre de derechos. Datacoffee.
Que bueno, hoy estamos aquí en un directo muy especial porque esta semana, ya sabéis,
se está celebrando el envidia GT-6, un evento que organiza envidia dos veces al año. Necesitan
dos eventos al año porque pasan tantas cosas dentro de los laboratorios de envidia que
tienen que hacer eventos, eventos, eventos para contárnoslos. Y es un evento muy guay
porque no es solamente lo que vamos a ver hoy, hoy va a ser la keynote principal con
el presi, con Jensen, Juan. Pero bueno, el evento no es solamente la keynote de hoy,
sino que tenemos sesiones cada día y tenéis un montón de conferencias que podéis visitar.
De hecho, si no lo habéis hecho todavía, os recomiendo que os registréis, además
es gratis y está todo bastante chulo. Y si venís aquí a catálogo vais a ver, lo vais
a ver ahora, aquí está. Wow, en 4K Ultra HD. Eso es nuevo. Ah, y Close Captions. Ah,
mira, hay subtítulos, muy bien. Bien, bien, tenemos subtítulos. Ya era hora. Bueno, hay
un montón de ponencias cada día de martes hasta el, bueno, veo que llega hasta el lunes,
pero no sé. No, lunes ayer, eso fue ayer, que hubo sesiones. Vale, vale, exacto. Pero
tenéis un montón de charlas de un montón de empresas, de organizaciones, de universidades
de laboratorios que están ligadas a todo el ecosistema tecnológico de NVIDIA, que puede
ser tanto la inteligencia artificial, como hardware, como gráficos por ordenador, todo.
Hoy hemos verá una de NERV, por ejemplo, que había unos temas de NERV con móvil y
este tipo de cosas. Siempre busco NERV. Voy a buscar otra cosa, solo voy a buscar Diffusion,
por ejemplo. Aquí tenemos algo con Diffusion. Seguramente. O Transformer. Ahí está. Pues
esta está muy guapa. El futuro de la IA generativa para la creación de contenido. Esa va a estar
muy bien. De Patrick Esser. Y eso, acordáos que para participar... Ah, Patrick Esser,
este es el de Runway. Este es el que creo, si no me equivoco, que firmó el paper de
Stability.j. Perdón, de Stable Diffusion. Este es el tipo que cuando fui a las oficinas
de Runway, en Nueva York, estaba ahí santadete. No puedo hablar con él, pero bueno. Patrick
Esser. Que eso, muy importante que asistáis a alguna de las sesiones para que cuenten
el sorteo, porque nosotros en NVIDIA miramos como asistencia. Lo que más importa de hecho,
más que los registros, es la asistencia. Y hay una sesión muy interesante. No puedo
hablar de qué, pero se lanza algo. Pero es una sesión muy interesante el jueves, que
hablará sobre lo que se lanza. Así que... Lo voy a decir durante la keynote de Jensen,
que solamente Jensen diga algo de esto. Perfecto. Muy bien. Pues hoy tenemos la keynote principal,
empiezan 10 minutos, así que no os vayáis muy lejos. Ahora vamos a estar comentando
un poco qué podemos esperar de todo esto. Pero ya lo ha comentado Asier, os lo recuerdo.
Si estáis aquí, si estáis participando en el GTC, si lo estáis viendo... Ay, qué
miedo. Sí, sí, estoy viendo Twitter, a ver qué pasa aquí. Me ponéis cosas en el chat
y me da miedo. Que Adobe ha lanzado algo, pero bueno. No sé qué han lanzado. Justo
te he dicho ahora, Adobe está durmiendo. Sí, justo hemos dicho, Adobe va un poco...
Va resagado. Le están adelantando. Se hace una hora, pero The Verge ha salido aquí,
pero bueno, un generador de imágenes. Otro generador de imágenes. Bastante decente, parece.
Un poco estilo como Mid-Journey, ¿no? Mid-Journey V4, tiene de la pinta. Mid-Journey V4. Sí,
pues ya lo probaré. Y lo habré integrado, no creo todavía. Pero bueno, no quiero quitar
del foco Nvidia. No, no se quitarlo, no. Nada, os comentaba... Usan Nvidia ellos, seguro,
pero vamos a ver. Eso es lo que quería comentar ahora. Pero bueno, si estáis participando
en el GTC, si estáis metidos en toda esta vorágine de la tecnología que celebra Nvidia,
si habéis participado ya en alguna, o sea, si habéis visto alguna de las ponencias,
que también podéis participar en este sorteo. Cada vez que hacemos la celebración del GTC,
pues estamos sorteando una tarjeta gráfica. 4090, aquí no te dejes engañar por la imagen,
que puse 4090ti, pero es una 4090, RTX 4090. Para participar es muy sencillo. Simplemente
tenéis que hacer retweet a este hilo de aquí, que os lo voy a compartir por el chat, de hecho,
¿vale? Registraros con mi enlace. Ese enlace lo vais a tener por aquí. Registraros al GTC,
si no lo habéis hecho todavía, tenéis aquí el enlace. O podéis acceder a través de la descripción.
Lo que comentan en el chat, si sois de Argentina, sí podéis ganar. Si hay problemas con el
envío, no os preocupéis, porque voy a Argentina casi cada cuatro meses. De hecho, me voy mañana,
me voy para Uruguay. Así que no os preocupéis, sí. En principio el sorteo es mundial y no hemos
tenido por ahora ningún problema grave para entregarlo. Ha habido algún lío alguna vez,
pero en principio siempre llegan. Igual tarda un poco más si es un país con temas de aduanas.
Así eres nuestro puente aéreo con Latinoamérica. Exacto. Y en realidad, bueno, ya se buscará la
forma de enviarlo, pero llegará. Y la tercera cosa que tenéis que hacer, importantísimo,
atender a una de las sesiones. Es decir, ir al portal de aquí. No vale la keynote,
tiene que ser cualquier otra sesión del catálogo. Os la veis, os engancháis ya el evento,
ya aprovecháis y os veis 50 más. Pero que haya participación, que no quede la cosa en
me he registrado para el sorteo y ya está, sino que realmente os valga de algo todo este evento
que está organizando NVIDIA. Dicho esto, empezamos en 10 minutos. 9 minutos. 1100 personas
conectados. Somos de Chile, Uruguay, Bolivia. Y la pregunta del millón, ¿puede presentar
algo hoy en NVIDIA que nos vuele la cabeza? Yo creo que va a haber algo, no creo que nos
vuele la cabeza, porque estamos ya como acostumbrando a que nos vuele la cabeza cada tres horas.
Yo estoy sobreestimulado en la vida. Hay demasiadas cosas. Yo creo que va a haber algo interesante,
creo que algo que utilizas alrededor de la IA generativa, porque es lo que tocaría. Vamos a ver.
O sea, ahora mismo los dos grandes focos que están abiertos en el mundo de la IA,
aunque están pasando más cosas, pero lo importante sería la IA generativa de imágenes y la parte de
generación de texto. Todo el ecosistema de IA generativa ampliamente dicho, donde GPT-4 ya ha
impresionado al mundo y donde por otro lado tenemos Mid-Journey V5, Dali 2, Edifi de NVIDIA.
Sí, Edifi, espero que veamos algo. No lo sé, la verdad, que sí que no lo sé, pero espero que
veamos algo nuevo. Stable Diffusion también. Pero bueno, realmente la cosa con NVIDIA, y creo que
es interesante que aprovechemos el evento para ubicarla en el mapa, es que ellos están en una
posición relativamente cómoda, porque pase lo que pase, sea como sea la batalla, ellos están poniendo
el campo de la IA. Ellos están poniendo la base, que es el hardware, donde se están entrenando todos
estos sistemas, y al final pues que OpenAI gane inversión, entrena un GPT-5 sobre Azure y Azure
entiendo que funciona con hardware de NVIDIA, pues ya está. O sea, James y Juan estarán así en casa.
Sí, de momento es verdad que tenemos una ventaja bastante fuerte con el resto de competidores,
así que bueno ahí. Luego lo que tiene NVIDIA es mucha investigación interna, NVIDIA es mucho
paper. Y empieza a haber mucho github público con código abierto también, así que creo que el que
te enseñé este de vídeo, está abierto todo, un generador de vídeo, creo que Chumminy Crayper publicó un vídeo,
ese es muy interesante, ese tiene, creo que tiene un mes casi, pero creo que el código, creo que el
repositorio estaba privado y creo que lo han abierto, entonces, o tiene dos meses el código,
pero creo que se ha abierto hace poco. Vamos a ver. Está muy bien porque ya empiezas a generar vídeo que dices
tu madre mía, o sea dentro de poco la gente no va a volar drones, no va a ir a este, metando a caballo, este vídeo
aquí está generado todo con IA, se ve algún error ahí, pero vamos que esto es como siempre cuestión de meses,
fijaos este descenso, será una burrada y claro, se nota la parte generativa, pero bueno es cuestión de que le
metan una, esto es como en este temporal ¿no? Sí, un estabilizador, pero bueno en este caso ya la propia
distorsión viene porque entiendo que lo que genera son como pocos flujos y hace una interpolación ahí rara.
Lo genera en poca resolución y luego hace un upscale con resolución y ya está, y luego hay algún vuelo
por ahí tipo de drone también que a mí me ha impresionado, al principio del todo creo que como los 10-20
primeros segundos incluso antes. Esto ¿no? Sí, y aquí habla del problema que había, como eso de la generación,
al final como la estabilidad temporal de la imagen ¿no? Claro, a ver en este caso es cierto que como estamos
sobreestimulados y estamos con noticias cada hora, esta semana hemos tenido dos impactos bastante
fuertes, la parte de generación de vídeo también, y yo creo que ahora mismo el state of the art se lo
lleva a runway, ¿tú has visto el Yen 2 que han sacado? He visto, pero si lo pones mejor, me falta una pasada.
A ver, yo sé que retweeté ayer un par de ejemplos, bueno este para empezar, este es el otro modelo que...
Este no era de runway ¿no? Este de ¿quién era? Este venía de China, era de algún laboratorio de China o así.
Con difusos, o sea de este edificio. Que el resultado está bastante bien, marca de agua incluida a Shutterstock,
que no sé, que no disimulen un poco dónde han sacado los datos, Shutterstock también estará ahora
también así frotándose las manos, pero este resultado me parece equiparable a lo que ya hemos visto
por ejemplo con Google Video o con Fenaki o con algún ejemplo de lo de Google, pero el de runway,
Yen 2, me ha parecido una auténtica locura, bueno esta película de nuevo es con el mismo modelo,
que han hecho una especie de corto, juntando clips de 4 segundos y tal, en plan Chuluk.
Chuluk saliendo del mar. Chuluk contra J.K. Rowling.
Pero este ya ha puesto un videoclip bastante decente porque siempre ha sido un poco así.
Sí. Bueno. Un anuncio de colonia.
Sí, total, bueno, esta es la película, pero esto, esto es una locura.
Esto, si tú me dices que esto es un vídeo generado, yo te digo sí porque hay detalles que bailan.
Sí hay detallitos del pelo, pero eso no le queda nada para estar perfecto.
Pero estoy viendo un detalle que no había visto antes, este tweet de Cristóbal Valenzuela,
que un día me lo quiero traer aquí al canal, pero mirad esto.
Locura, es que no vamos a montar películas en nada ya.
Yo te dije que en breve en Netflix íbamos a tener películas hablando y no queda nada.
A ver qué tipo de contenido.
Es curioso que esta IA de Gen 2 tiene como una especie de filtro común, como de saturado, ¿no?
Como le pasa un poco a mid-journey generado.
Como que se nota que está hecho con ella, ¿no?
Sí, no, pero que tiene un estilo propio de como si esta, esta y esta tuviera los tonos naranjados.
Como si fuera la misma película, más o menos.
Sí, exacto. Es muy raro. Y esta también. Bueno, esto es como un filtro, ¿no?
Sí, igual le han metido luego un filtrillo, pero es una pasada.
Es una pasada. En fin, bueno.
Es una pasada.
El perro de pesadillas, total, sí.
Mira aquí.
Qué locura. Y esto es Gen 2. Imaginad Gen 8 o Gen 9.
Pues así estamos.
Así estamos. Y Andrés Bocco será 3D y lo verás en VR.
A ver si hay algún ejemplo más de esta gente.
Aquí acaba.
Pero bueno.
Envidia, te digo, lo tiene complicado de impactar porque el ritmo de impactos que hemos tenido estas últimas semanas es muy alto.
O sea, ya no solo GPT-4, sino el evento que hizo Microsoft el otro día fue bastante potente.
El evento más potente que he visto en años.
En mucho tiempo.
Pero porque es Microsoft abrazándose por completo a la revolución del ayer, surfeando la ola.
Y Envidia yo creo que lo que nos va a enseñar es que ellos ya llevan mucho tiempo metidos en esta tendencia.
Y entonces a lo mejor lo que podamos ver podrá sorprendernos. No lo sé. Vamos a comprobarlo.
Yo creo que va a haber cosas interesantes esta vez más que otros GTC.
Yo creo que otros GTC, a ver, aquí también va a haber lo típico de infraestructura, nuevos procesadores, nuevas arquitecturas, a lo mejor.
Aunque no creo que tantas, porque ya se presentaron nuevas hace seis meses.
Y aquí igual yo creo que se toca un poco más la parte de demos.
Claro.
Así que vamos a ver. Eso espero.
Vamos a verlo.
Y luego una cosa que me gusta mucho de Envidia, que está faltando en otras empresas, es el foco que ponen a la aceleración de la investigación, de la parte de ciencia.
Lo que llaman Big Science y todo esto.
El uso de Large Language Models para el tema de genética y todas estas cosas.
Bio.
Toda la parte bio.
Tenemos una cosa que se llama Bionemo.
Vamos a ver si hay alguna actualización aquí.
Yo espero que sí.
Y bueno, vamos a ver qué dice Jensen de este.
Pero en este punto, Meta y Google también sí tienen trabajos en esa línea, que eso sí me gusta bastante.
No, Microsoft, ¿no?
Tenía el Bin GPT.
No, espera, ¿cómo era?
Sí, también sacaron algo.
Bio.
Bio GPT.
Sí, hay un montón de artículos así, pero me falta como un apoyo más claro a toda esa tendencia.
Y me parece muy guay que también en el GTC tenemos charlas este año de DeepMind, de OpenAI, y la charla de DeepMind es la que este hombre siempre hace sobre aceleración de avances científicos.
Con lo cual, si no lo habéis visto, es una muy buena oportunidad para verla porque mola bastante de mis Hasavis.
Sí.
He dicho esto.
Listo, queda nada, un minuto.
Me voy callando.
Voy actualizando aquí a ver si...
Esto está a punto de empezar.
Me estoy quedando sin voz y no sé por qué, la verdad.
Yo también tengo aquí la gargantilla.
Estamos pillados.
Hostia, ¿eh?
Yo creo que es la tensión de tragar agua.
De la ola.
De la línea.
La ola, la ola.
A mí me pasa ahora.
Igual era la humedad aquí de Madrid.
Puede ser.
Puede ser.
Eso, estamos pillando el COVID.
Adobe.
Voy a aprovechar rápido a mirar a ver qué ha sido lo de Adobe.
Gen 2.
A ver si...
A ver, espérate.
Voy a buscar rápido lo de Adobe mientras esto empieza.
Esto es así, la actualidad no para.
En cuestión de horas.
Las cuatro.
Las novedades.
Debería ver, refresca.
Vamos a ver.
Por si lo que sea.
Firefly.
¿Lo tenemos?
¿No?
No, todavía no.
Si alguien tiene el enlace, por si acaso.
Si alguien ve que ha empezado.
Empieza, empieza.
Raro, pero normalmente empieza como un par de minutos antes con el...
Claro, con la cortinilla.
Con la cortinilla.
Ahora estamos.
Vamos.
A cambio de sitio.
Vale, tenemos cascos para mí.
Uy, uy, uy.
Sí, sí.
Left, right.
Ahí está.
Lo tenemos.
Uy, se está trabando.
Se está trabando.
¿No?
No.
Esto es lo más grande que tenemos en la sociedad.
Si cambian la solución igual se embarran.
Vale.
Perfecto.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Bueno.
Pues perfecto.
Bueno.
Le hicimos ^^
Vale.
Será una IA?
Yo le veo muy serio.
Le veo muy...
Muy serio.
Sí.
La voz.
Sí.
Bueno, mejor no.
Así para...
Otoño me dejan hacer algo con el...
Vamos a Microsoft.
Ahí bien.
Vamos.
Vamos.
Muy interesante.
Esto es muy interesante.
Me gusta.
Muy bien.
Todo esto lo tenéis, gracias.
Todas estas charlas.
Una locura.
¿Cómo que le falta música de fondo?
Le falta música de fondo.
Por la música, como una hita, pero épica.
No es una IA.
Si no hubieran hecho ahora el despliegue de...
Ok, aquí comienza, vamos a ver la animación inicial.
Ojo, que guapo esto.
Si, muy extra.
Pero el tema del lenguaje en robótica, que está entrando súper fuerte.
Que ha actualizado el Fafold 2.
Soy un visionario.
Generando milagros médicos nuevos.
Y nos dando una nueva perspectiva en nuestro sol.
Para mantenernos seguros aquí en la Tierra.
Soy un navegador.
Descubriendo un momento único en un mar de contacto.
Estamos anunciando a la siguiente generación.
Y el perfecto setting para cualquier historia.
Soy un creador.
Construyendo experiencias 3D de snapshots.
Y añadiendo nuevos niveles de realidad a nuestros seres virtuosos.
Soy un ayudante.
Convirtiendo brainstormas a la vida.
Compartiendo la sabiduría de un millón de programas.
Y convirtiendo ideas en mundos virtuales.
Y convirtiendo ideas en mundos virtuales.
Incluso ayudé a escribir este script.
Convirtiendo la vida en las palabras.
Y componer la melodía.
Soy un A.I.
Convirtido a la vida por NVIDIA.
Aplausos profundos.
Y mentiras brillantes.
En todo el mundo.
NVIDIA inventó el computador acelerado.
Para resolver problemas que los computadores normales no pueden.
El computador acelerado no es fácil.
Es fácil.
Necesita una inventión completa de chips.
Sistemas.
Networking.
Librerías de aceleración.
Para refactorar las aplicaciones.
Cada aplicación optimizada.
Acelera el domain de la aplicación.
De gráficos.
Imágenes.
Partículas o dinámicas fluidas.
Física cuántica.
A la procesación de datos y aprendizaje de la máquina.
Una vez acelerado.
La aplicación puede disfrutar de increíble aceleración.
Como la aceleración.
En muchos computadores.
La combinación de aceleración.
Y aceleración.
Nos ha permitido lograr un millón de X.
Para muchas aplicaciones durante el pasado década.
Y ayudando a resolver problemas.
Imposible anteriormente.
Aunque hay muchos ejemplos.
El más famoso es el aprendizaje profundo.
En 2012.
Alex Krzyzewski.
Y Jeff Hinton.
Necesitan un computador muy rápido.
Para entrenar a la revolución del modelo de la computadora.
Los investigadores.
Trenaron a Alexnet con 14 millones de imágenes.
En GeForce GTX 580.
Procesando.
262 operaciones quadrilias.
Y el modelo de entrenamiento.
Ganó el desafío de imágenes.
Por un gran margen.
Que guay.
Inicia la GPU y la IA.
Un década después.
El modelo de transformación fue inventado.
Y Ilya.
Ahora en OpenAI.
Trae el GPT-3.
Para predecir la siguiente palabra.
323 operaciones quadrilias.
Necesitan entrenar GPT-3.
Un millón de veces más operaciones quadrilias.
Than to train Alexnet.
The result this time.
Chat GPT.
The AI.
Heard around the world.
A new computing platform.
Has been invented.
The iPhone moment of AI.
Has started.
Accelerated computing and AI.
Have arrived.
Acceleration libraries.
Are at the core of accelerated computing.
These libraries.
Connect to applications.
Which connect to the world's industries.
Forming a network of networks.
Three decades in the making.
Several thousand applications.
Are now NVIDIA accelerated.
With libraries in almost every domain of science and industry.
All NVIDIA GPUs.
Are CUDA compatible.
Providing a large install base.
And significant reach for developers.
A wealth of accelerated applications.
Are now available.
A wealth of accelerated applications.
Attract end users.
Which creates a large market.
For cloud service providers.
And computer makers to serve.
A large market.
Affords billions.
In R&D to fuel its growth.
NVIDIA has established.
The accelerated computing.
Virtual cycle.
Of the 300.
Acceleration libraries.
And 400 AI models.
That span ray tracing and neural rendering.
Physical.
Earth and life sciences.
Quantum physics and chemistry.
Computer vision.
Data processing.
Machine learning and AI.
We updated.
100 this year.
That increased the performance and features.
Of our entire install base.
Let me highlight some acceleration libraries.
That solve new challenges.
And open new markets.
The auto and aerospace industries.
Use CFD for turbulence.
And aerodynamic simulation.
The electronics industry.
Uses CFD for thermal management design.
This is cadence's slide.
Of their new CFD solver.
Accelerated by CUDA.
At equivalent system cost.
NVIDIA A100.
Is nine times the throughput.
Of CPU servers.
Or at equivalent simulation throughput.
NVIDIA is nine times lower cost.
Or 17 times.
Less energy consumed.
Ansys.
Siemens.
Cadence.
And other leading CFD solvers.
Are now CUDA accelerated.
Worldwide industrial CAE.
Uses nearly 100 billion.
CPU core hours.
Yearly.
Acceleration is the best way.
To reclaim power.
And achieve sustainability.
And net zero.
NVIDIA is partnering with the global
quantum computing research community.
The NVIDIA quantum
platform.
Consists of libraries and systems.
For researchers to advance quantum programming models.
System architectures.
And algorithms.
CuQuantum is an acceleration library
for quantum circuit simulations.
IBM Qiskit.
Google Cirq.
Baidu Quantum Leaf.
QMware.
Qera.
Xanadu Penny Lane.
Agnostic.
And AWS Bracket have integrated
CuQuantum into their simulation frameworks.
Open Quantum CUDA.
Is our hybrid GPU quantum
programming model.
IonQ.
Orca Computing.
Atom.
Qera.
Oxford Quantum Circuits.
Quantinium.
Rogetti. Xanadu.
And Enion have integrated
Open Quantum CUDA.
Error correction on a large number of
qubits is necessary to recover data
from quantum noise and decoherence.
Today we're announcing a quantum
controlling.
Developed in partnership with Quantum Machines.
That connects NVIDIA GPUs
to a quantum computer.
To do error correction at extremely
high speeds.
While quantum computers are still a decade or two away.
We're delighted to support this
large and vibrant research community
with NVIDIA Quantum.
Enterprises worldwide
use Apache Spark
to process data lakes and warehouses.
SQL queries.
Graph analytics and recommender systems.
Spark Rapids
is NVIDIA's accelerated
Apache Spark data
processing engine.
Data processing is the leading
workload of the world's
500 billion dollar cloud
computing spend. Spark Rapids
now accelerates major
cloud data processing platforms.
Including GCP Dataproc.
Amazon EMR.
Databricks.
And Cloudera.
Recommender systems use vector databases
to store, index,
search and retrieve massive
datasets of unstructured data.
A new important use case
of vector databases is
large language models to retrieve
domain specific
or proprietary facts that
can be queried during text
generation. We are introducing
a new library, Raft.
To accelerate indexing,
loading the data
and retrieving a batch of neighbors
for a single query.
We are bringing the acceleration
of Raft to Meta's open source
phase AI
similarity search.
Milvus, open source vector database
used by over 1,000
organizations and
Redis with over 4 billion
Docker pools.
Vector databases will be essential for
organizations building proprietary
large language models.
22 years ago, operations
research scientists, Lee
and Lim, posted a series of
challenging pickup and delivery problems.
PDP
shows up in manufacturing,
transportation, retail and
logistics and even disaster
relief. PDP is a generalization
of the traveling sales
person problem and is MP
hard, meaning there is no efficient
algorithm to find an
exact solution.
The solution time
grows factorially as the problem
size increases.
Using an evolution algorithm,
an accelerated computing to
analyze 30 billion moves
per second.
NVIDIA has broken the
world record and discovered
the best solution for Lee and Lim's
challenge.
AT&T routinely dispatches
30,000 technicians
to service 13 million
customers across 700
geographic zones.
Today, running on CPUs,
AT&T's dispatch
optimization takes overnight.
AT&T wants to find a dispatch
solution in real time
that continuously optimizes
for urgent customer needs
and overall customer satisfaction
while adjusting for delays
and new incidents that arise.
With CUA,
AT&T can find a solution
100 times faster
and update their dispatch
in real time.
AT&T has adopted a full
suite of NVIDIA AI libraries.
In addition to SparkRapids and
CUAPT, they're using
Riva for conversational AI
and Omniverse
for digital avatars.
AT&T is tapping into NVIDIA
accelerated computing and AI
for sustainability, cost
savings, and new
services.
CUAPT can also optimize
logistics services.
400 billion parcels
are delivered to 377
billion stops
each year.
Deloitte, Capgemini,
SoftServe, Accenture, and
Quantify are using NVIDIA
CUAPT to help customers
optimize operations.
NVIDIA's inference platform
consists of three software SDKs.
NVIDIA TensorRT
is our inference runtime that
optimizes for the target GPU.
NVIDIA Triton
is a multi-framework
data center inference serving software
supporting GPUs and
CPUs. Microsoft
Office and Teams, Amazon,
American Express,
and the US Postal Service are
among the 40,000 customers
using TensorRT and Triton.
Uber uses Triton
to serve hundreds of thousands of ETA
predictions per second.
With over 60 million daily
users, Roblox uses
Triton to serve models for game
applications, build avatars,
and moderate content
and marketplace ads.
We are releasing some great
new features. Model
Analyzer, support for model
ensembles, multiple
concurrent model serving, and
multi-GPU multi-node
inference for
GPT-3 large language
models. NVIDIA
Triton Management Service is our new
software that automates
scaling and orchestration of
Triton inference instances
across a data center.
Triton Management Service will
help you improve the throughput
and cost efficiency of deploying
your models. 50
to 80% of cloud video pipelines
are processed on CPUs,
consuming power and
cost and adding latency.
CVCUDA
for computer vision
and VPF for video
processing are new cloud
scale acceleration libraries.
CVCUDA includes
30 computer vision operators
for detection, segmentation,
and classification.
VPF is a Python
video encode and decode
acceleration library.
Tencent uses CVCUDA and
VPF to process
300,000 videos
per day. Microsoft
uses CVCUDA and VPF
to process visual search.
Runway is a super cool
company that uses CVCUDA and
VPF to process video
for their cloud generative
AI video editing service.
Already 80%
of internet traffic is video.
User generated
video content is driving significant
growth and consuming massive
amounts of power. We should
accelerate all video processing
and reclaim the power.
CVCUDA and VPF
are in early access.
NVIDIA accelerated
computing helped achieve a
genomics milestone. Now
doctors can draw blood and sequence a patient's
DNA in the same video.
In another milestone,
NVIDIA powered instruments
reduce the cost of whole genome
sequencing to just $100.
Genomics
is a critical tool
in synthetic biology, with
applications ranging from drug discovery
and agriculture
to energy production.
NVIDIA Parabrix is a suite
of AI accelerated libraries
for end-to-end genomics
analysis in the cloud or
an instrument.
NVIDIA Parabrix is available in every
public cloud and
genomics platforms like Terra,
DNA Nexus
and Formbio.
Today, we're announcing Parabrix
4.1 and we'll run on
NVIDIA accelerated genomics
instruments from PacBio,
Oxford Nanopore,
Ultima, Singular,
BioNano and
Nanostring. The world's
$250 billion
medical instruments market is being
transformed. Medical
instruments will be software defined
and AI powered.
NVIDIA Holoscan is a software
library for real-time sensor
processing systems.
Over 75 companies
are developing medical instruments on
Holoscan. Today,
we are announcing Metronik,
the world leader in
medical instruments and NVIDIA
are building their AI
platform for software defined
medical devices.
This partnership will create a common
platform for Metronik systems
ranging from surgical navigation
to robotic assisted
surgery. Today,
Metronik announced that its
GI Genius system with
AI for early detection of colon
cancer is built on NVIDIA
Holoscan and will ship around
the end of this year.
The chip industry
is the foundation of nearly
every industry. Chip
manufacturing demands extreme precision
producing features
1000 times smaller
than a bacterium.
And on the order of a single gold
atom, or a strand of human
DNA. Lithography,
the process of creating patterns
on a wafer, is the beginning
of the chip manufacturing process
and consists of two stages,
photo mask making
and pattern projection.
It is fundamentally an imaging problem
at the limits.
The photo mask is like
a stencil of a chip.
Light is blocked or passed
through the mask to the
wafer to create the pattern.
The light is produced by the
ASML EUV extreme
ultraviolet lithography system.
Each system
is more than a quarter of a billion dollars.
ASML EUV
uses a radical way to create light.
Laser pulses
firing 50,000 times a second
at a drop of 10
vaporizing creating a plasma
that emits 13.5
nanometer EUV light
nearly extreme.
Multi-layer mirrors
guide the light to the mask.
The multi-layer reflectors
in the mask reticle take
advantage of interference patterns
of the 13.5 nanometer
light to create
finer features down to
3 nanometers.
Magic. The wafer
is positioned within a quarter
of a nanometer and aligned
20,000 times a second
to adjust for any vibration.
The step before
lithography is equally miraculous.
Computational
lithography applies inverse
physics algorithms
to predict the patterns on the mask
that will produce the
final patterns on the wafer.
In fact, the patterns
on the mask do not resemble
the final features.
Computational lithography simulates
Maxwell's equations
of the behavior of the light
passing through optics
and interacting with photo results.
Computational lithography is
the largest computational workload
in chip design and manufacturing,
consuming tens of
billions of CPU hours annually.
Massive data centers run
24-7 to create reticles
used in lithography systems.
These data centers are
part of the nearly $200 billion
annual CAPEX invested
by chip manufacturers.
Computational lithography is
growing fast as algorithm
complexity increases, enabling
the industry to go to 2 nanometers
and beyond. NVIDIA
today is announcing Coolitho,
a library for computational
lithography. Coolitho,
a massive body of work
that has taken nearly four years
and with close collaboration with TSMC,
ASML, and Synopsys,
accelerates computational
lithography by over 40
times.
There are 89 reticles
for the NVIDIA H100.
Running on CPUs,
a single reticle currently
takes two weeks to process.
Coolitho,
running on GPUs,
can process a reticle in
a single 8-hour shift.
TSMC can reduce their
40,000 CPU servers
used for computational lithography
by accelerating with Coolitho
on just 500
DGX H100
systems, reducing
power from 35 megawatts
to just 5 megawatts.
With Coolitho, TSMC
can reduce prototype cycle time,
increase throughput, and
reduce the carbon footprint of their manufacturing
and prepare
for 2 nanometer and beyond.
TSMC will be qualifying
Coolitho for productions
starting in June.
Every industry needs to accelerate
every workload,
so that we can reclaim power
and do more with less.
Over the past 10 years,
cloud computing has grown 20%
annually into a
massive $1 trillion
industry. Some 30
million CPU servers do the majority
of the processing.
There are challenges on the horizon.
As Moore's Law ends,
increasing CPU performance
comes with increased power.
And the mandate
to decrease carbon emissions
is fundamentally at odds
with the need to increase data centers.
Cloud computing
growth is power limited.
First and foremost,
data centers must accelerate
every workload. Acceleration
will reclaim power.
The energy saved can feel new growth.
Whatever is not accelerated
will be processed on CPUs.
The CPU design point for
accelerated cloud data centers
differs fundamentally from the past.
In AI and cloud services,
accelerated computing
offloads
parallelizable workloads.
And CPUs process
other workloads like WebRPC
and database queries.
We designed the Gray CPU
for an AI and
cloud first world, where AI
workloads are GPU accelerated.
And GRACE excels
at single threaded execution
and memory processing. It's not
just about the CPU chip.
Data center operators
optimize for throughput and
total cost of ownership of
the entire data center.
We designed GRACE for high energy efficiency
at cloud data center scale.
GRACE comprises
72 ARM cores connected
by a super high speed on chip
scalable coherent fabric that delivers
3.2 terabytes per second
of cross sectional bandwidth.
GRACE superchip connects
144 cores
between two CPU dies
over a 900 gigabytes per second
low power chip to chip
coherent interface. The memory
system is LPDDR
low power memory like used in cell phones
that we specially enhanced for
use in data centers. It delivers
one terabytes per second,
two and a half times the bandwidth of today's
systems at one eighth
the power. The entire
144 core
GRACE superchip module with
one terabyte of memory
is only five by eight
inches. It is so
low power it can be air cooled.
This is the
computing module with passive core.
Two GRACE superchip computers
can fit in a single
one U air cooled server.
GRACE's performance and
power efficiency are excellent
for cloud and scientific computing applications.
We tested GRACE
on a popular Google benchmark
which tests how quickly cloud
microservices communicate
and high bench suite that test
Apache Spark memory intensive
data processing. These
kinds of workloads are foundational
for cloud data centers.
At microservices, GRACE is
1.3 times faster
than the average of the newest
generation x86
CPUs and 1.2
times faster at data processing
and that higher performance
is achieved using only
60 percent of the
power measured at the full server
node. CSPs
can outfit a power limited data
center with 1.7
times more
GRACE servers, each
delivering 25 percent higher
throughput. At ISO
Power, GRACE gives
CSPs two times
the growth opportunity.
GRACE's sampling and
ASUS, ATOS,
Gigabyte, HPE,
QCT, Super Micro,
Wishtron and ZT
are building systems now.
In a modern software defined data center,
the operating system doing virtualization,
network, storage
and security can consume nearly
half of the data center's
CPU cores and associated
power. Data centers
must accelerate every workload
to reclaim power
and free CPUs for
revenue generating workloads.
NVIDIA BlueField offloads
and accelerates the data center operating
system and infrastructure software.
Over two dozen ecosystem
partners, including Checkpoint,
Cisco, DDN,
Dell EMC,
Juniper, Palo Alto Networks,
Red Hat and VMware
use BlueField's data
center acceleration technology to
run their software platforms more
efficiently. BlueField 3
is in production and
adopted by leading cloud service providers
Baidu, CoreWeave,
JD.com,
Microsoft Azure,
Oracle OCI and
Tencent Games to accelerate their clouds.
NVIDIA Accelerated Computing
starts with DGX,
the world's AI
supercomputer, the engine
behind the large language model
breakthrough. IHAND delivered the world's
first DGX to OpenAI.
Since then, half of the Fortune
100 companies have installed
DGX AI supercomputers.
DGX has become
the essential instrument of
AI. The GPU of
DGX is eight H100
modules. H100
has a transformer engine
designed to process models
like the amazing chat GPT,
which stands for generative
pre-trained transformers.
The eight H100
modules are MV-linked to each
other across MV-linked switches
to allow fully non-blocking
transactions. The
eight H100s work as one
giant GPU.
The computing fabric is one of the most
vital systems of the AI
supercomputer. 400
gigabits per second, ultra
low latency, NVIDIA Quantum
InfiniBand, with in-network
processing, connects hundreds
and thousands of DGX nodes
into an AI supercomputer.
NVIDIA DGX
H100 is the blueprint
for customers building AI
infrastructure worldwide.
It is now in full
production. I am thrilled
that Microsoft announced Azure
is opening private previews to their
H100 AI supercomputer.
Other systems and
cloud services will soon come from
Atos, AWS,
Serescale, Coreweave,
Dell, Gigabyte,
Google, HPE,
Lambda, Lenovo,
Oracle, Quanta, and Supermicro.
The market for DGX
AI supercomputers
has grown significantly.
Originally used
as an AI research instrument,
DGX AI supercomputers
are expanding into
operations, running
24-7 to refine
data and process
AI. DGX supercomputers
are modern
AI factories.
We are at the
iPhone moment of AI.
Startups are racing
to build disruptive products and business
models, while incumbents
are looking to respond.
Generative AI has triggered
a sense of urgency
in enterprises worldwide
to develop AI strategies.
Customers need
to access NVIDIA AI
easier and faster.
We are announcing NVIDIA
DGX Cloud
through partnerships with Microsoft
Azure, Google
GCP, and Oracle
CI to bring NVIDIA
DGX AI supercomputers
to every company
instantly from a browser.
DGX Cloud
is optimized to run NVIDIA
AI Enterprise,
the world's leading acceleration
library suite for end-to-end
development and deployment
of AI.
DGX Cloud offers customers
the best of NVIDIA AI
and the best of the world's leading
cloud service providers.
This partnership brings
NVIDIA's ecosystem to
the CSPs, while
amplifying NVIDIA's scale and
reach. This win-win
partnership gives customers
racing to engage generative AI
instant access
to NVIDIA and global
scale clouds. We are excited
by the speed, scale,
and reach of this cloud
extension of our business model.
Oracle Cloud Infrastructure,
OCI, will be
the first NVIDIA DGX cloud.
OCI has
excellent performance. They have
a two-tier computing
fabric and management network.
NVIDIA CX7,
with the industry's best RDMA,
is the computing fabric.
And BlueField 3 will be
the infrastructure processor for
the management network.
The combination is a state-of-the-art
DGX AI supercomputer
that can be offered as a
multi-tenant cloud service.
We have 50 early access
enterprise customers spanning
consumer internet and software,
healthcare, media and
entertainment, and financial services.
Chat GPT,
stable diffusion,
Dolly, and Mid Journey
have awakened the world
to generative AI.
These applications ease
of use and impressive capabilities
attracted over
a hundred million users
in just a few months.
Chat GPT is
the fastest growing application
in history.
Ask these models
to do something.
The generated text
is beyond...
Chat GPT
can compose memos and poems,
paraphrase a research paper,
solve math problems,
highlight key points of a contract,
and even code software programs.
Chat GPT
is a computer
that not only runs software,
but writes software.
Many breakthroughs
led to generative AI.
Transformers learn context
and meaning from the relationships
and dependency of data
in parallel and at large scale.
This led
to large language models
that learn from so much data
they can perform downstream tasks
without explicit training.
And diffusion models
inspired by physics
learn without supervision
to generate images.
In just over a decade,
we went from trying to recognize cats
to generating realistic images
of a cat in a space suit
walking on the moon.
Generative AI
is a new kind of computer,
one that we program
in human language.
This ability has
profound implications.
Everyone can direct
a computer to solve problems.
This was a domain
only for computer programmers.
Now, everyone
has a problem.
Generative AI
is a new computing platform
like PC,
Interim, Mobile, and Cloud.
And like in previous computing eras,
first movers are creating
new applications
and founding new companies
to capitalize on generative AI's ability
to automate and co-create.
DeBuild lets users
design and deploy web applications
just by explaining
what they want.
Grammarly is a writing assistant
that considers context.
Tab9 helps developers
write code.
Omnikey generates
customized ads and copy.
Core AI is a virtual
customer service agent.
Jasper generates marketing
material. Jasper has written
nearly 5 billion words,
reducing time to generate the first draft
by 80%.
Incilico uses AI to accelerate
drug design.
Absi is using AI to predict
therapeutic antibodies.
Generative AI will reinvent
nearly every industry.
Many companies can use
one of the extra generative AI APIs
to market.
Some companies
need to build custom models
with their proprietary data
that are experts
in their domain.
We need to set up usage guardrails
and refine their models
to align with their company's
safety, privacy, and security
requirements.
The industry needs a foundry,
a TSMC
for custom large language models.
Today,
we announce the NVIDIA AI
foundations, a cloud
service for customers
needing to build, refine,
and operate custom large
language models and generative AI
trained with their proprietary
data and for their domain
specific tasks.
NVIDIA AI foundations comprise
language, visual, and
biology model-making services.
NVIDIA NEMO
is for building custom language
text-to-text generative models.
Customers can bring their
model or start with the NEMO
pre-trained language models
ranging from GPT-8,
GPT-43,
and GPT-530
billion parameters.
Throughout the entire process,
NVIDIA AI experts will work with you
from creating your proprietary model
to operations.
Let's take a look.
Generative models, like NVIDIA's 43B
foundational model, learn by training
on billions of sentences and
trillions of words. As the model
converges, it begins to understand
the relationships between words
and their underlying concepts
captured in the weights in the embedded
space of the model.
Transformer models use a technique
called self-attention, a mechanism
designed to learn dependencies
and relationships within a sequence
of words. The result
is a model that provides the foundation
for a CHAP GPT-like experience.
These generative
models require expansive
amounts of data, deep AI
expertise for data processing
and distributed training,
and large-scale compute to train,
deploy, and maintain
at the pace of innovation.
Enterprises can fast-track
their generative AI adoption
with NVIDIA NEMO Service
running on NVIDIA DGX Cloud.
The quickest path is starting with
one of NVIDIA's state-of-the-art
pre-trained foundation models.
With the NEMO Service, organizations
can easily customize a model
with P-tuning to teach its
functionality.
The NEMO Service is a tool
that allows companies with their data
to create their own GPT
customized to reach
530 billion.
and prevents undesired
responses. After putting
the model to work, it can
continuously improve with reinforcement
learning based on user interactions.
And NEMO's playground
is available for rapid
pre-training before moving to the Cloud
API for larger-scale evaluation
and application integration.
Sign up for the NVIDIA
NEMO Service today to
codify your enterprise knowledge
into a personalized AI model
The NVIDIA NEMO Service
is a visual language
model-making service
for customers who want
to build custom models
trained with licensed
or proprietary content.
Let's take a look.
Generative AI
is transforming how visual
content is created.
But to realize its full potential,
enterprises need massive amounts
of copyright-cleared data
AI experts
and an AI supercomputer.
NVIDIA PICASO
is a cloud service for building
and deploying generative AI power
image, video, and C applications.
With it, enterprises,
ISVs, and service providers
can deploy their own models.
We are working with premier
partners to bring generative AI
capabilities to every industry.
Organizations can also start
with NVIDIA Edify models
and train them on their data
to create a product or service.
These models generate images,
videos, and 3D assets.
To access generative AI
models, applications send an
API call with text prompts and
metadata to PICASO.
PICASO uses the appropriate model
running on NVIDIA DGX Cloud
to send back the generated asset
to the application. This can be
a photorealistic image,
a high-resolution video,
or a detailed 3D geometry.
Generated assets can be
imported into editing tools
or into NVIDIA Omniverse
to build photorealistic virtual worlds,
metaverse applications,
and tracking simulations.
With NVIDIA PICASO services
running on NVIDIA DGX Cloud,
you can streamline training,
optimization, and inference
needed to build custom generative
AI applications.
See how NVIDIA PICASO can bring
transformative generative AI capabilities
to your applications.
We are delighted
that Getty Images
will use the PICASO service
to build Edify Image and
Edify Video generative
models, trained on their rich library
of responsibly licensed
professional images
and video assets. Enterprises
will be able to create custom
images and video with simple
text or image prompts.
Shutterstock is developing an
Edify 3D generative model
trained on their professional
image, 3D, and video
assets library.
Shutterstock will help simplify
the creation of 3D assets
for creative production, digital
choice, and virtual collaboration.
Making these workflows
faster and easier for enterprises
to implement. And I'm thrilled
to announce a significant expansion
of our long time partnership
with Adobe
to build a set of next generation
AI capabilities
for the future of creativity
integrating generative AI
into the everyday workflows
of marketers and creative
professionals. The new generative
AI models will be optimized
3D and animation
to protect
artist rights.
Adobe is developing with a focus
on commercial viability
and proper content attribution
powered by Adobe's
Content Authenticity Initiative.
Our third language domain
is biology.
Drug discovery is a nearly
$2 trillion industry
with $250 billion
dedicated to R&D.
NVIDIA's Clara is a healthcare
application framework
for imaging, instruments,
genomics, and drug discovery.
The industry is now jumping
onto generative AI
to discover disease targets,
design novel molecules
or protein based drugs,
and predict the behavior of the medicines
in the body. In silico medicine,
Exentia,
Absi,
and Evozyme are among
hundreds of new AI drug discovery
startups. Several have
discovered novel targets
or drug candidates
that have started human clinical trials.
BioNemo helped
researchers create,
fine tune, and serve custom models
with their proprietary data.
Let's take a look.
There are three key stages
to drug discovery.
Discovering the biology that causes disease,
designing new molecules,
whether those are small molecules,
proteins, or antibodies,
and finally, screening how those
molecules interact with each other.
Today, generative AI
is transforming every step
of the drug discovery process.
NVIDIA BioNemo's service
provides state of the art generative AI
models for drug discovery.
It's available as a cloud service,
providing instant and easy access
to accelerated drug discovery
workforce.
BioNemo includes
AlphaFold, ESMFold,
and OpenFold for 3D protein
structure prediction,
trained PPT for protein generation,
ESM1 and ESM2
for protein property prediction,
Megamole BART and MoleFlow
for molecule generation,
and DiffDoc for molecule docking.
Drug discovery teams
can use the models
through BioNemo's web interface
or cloud APIs.
Here's an example of using
NVIDIA BioNemo for drug discovery
virtual screening.
Generative models can now read a protein's
amino acid sequence and, in seconds,
accurately predict the structure
of a target protein.
They can also generate molecules
with desirable ADME properties
that optimize how a drug behaves in the body.
Generative models
can even predict the 3D interactions
of a protein and molecule,
accelerating the discovery of optimal
drug candidates.
So NVIDIA DGXR
BioNemo also provides on demand
supercomputing the structure
to further optimize and train models,
saving teams valuable time and money
so they can focus on discovering
life-saving medicines.
The new AI drug discovery pipelines
are here. Sign up now
for access to NVIDIA BioNemo
services.
We will continue to work with the industry
to include models into
ModelDemo that encompass
the end-to-end workflow
with drug discovery and virtual screening.
Amgen, AstraZeneca,
in silico medicine,
Emozon,
InnoFor,
and Alchemep Therapeutics
are early access users of BioNemo.
NVIDIA AI Foundations,
a cloud service,
a foundry
for building custom language models
and generative AI.
Since AlexNet a decade ago,
deep learning has opened
giant new markets,
automated driving,
robotics,
smart speakers,
and reinvented how we shop, consume news,
and enjoy music.
That's just the tip of the iceberg.
AI is
at an inflection point
as generative AI has started
a new wave of opportunities,
driving a step-function
increase in inference workloads.
AI can now generate
diverse data,
expanding voice, text,
images, video,
and 3D graphics
to proteins and chemicals.
Designing a cloud data center
to process generative AI
is a great challenge.
On the one hand,
a single type of accelerator is ideal,
because it allows the data center
to be elastic
and handle the unpredictable peaks and valleys
of traffic.
On the other hand,
no one accelerator
can optimally process the diversity
of algorithms, models,
data types, and sizes.
NVIDIA's One Architecture platform
offers both
acceleration and elasticity.
Today,
we are announcing
our new inference platform.
Four configurations,
one architecture,
one software stack.
Each configuration
is optimized for a class of workloads.
For AI video workloads,
we have L4,
optimized for video decoding
and transcoding,
video content moderation,
and video call features
like background,
read lighting,
transcription,
and real-time language translation.
Most cloud videos today
are processed on CPUs.
One 8 GPU L4 server
will replace over 100
dual-socket CPU servers
for processing AI video.
Snap is a leading user
of NVIDIA AI
for computer vision and recommender systems.
Snap will use L4
for AV1 video processing,
generative AI,
and augmented reality.
Snapchat users upload
hundreds of millions of videos
every day.
Google announced today
NVIDIA L4 on GCP.
NVIDIA and Google Cloud
are working to deploy
major workloads on L4.
Let me highlight five.
First, we're accelerating inference
for generative AI models
for cloud services like
Wombo and Descript.
Second, we're integrating
Triton inference server
with Google Kubernetes Engine
and Vertex AI.
Third, we're accelerating
Google Dataproc with NVIDIA Spark
Rabbids. Fourth,
we're accelerating AlphaFold and
UL2 and T5 large
language models. And fifth,
we are accelerating Google Cloud's
immersive stream that renders
3D and AR experiences.
With this collaboration,
Google GCP is a
premier NVIDIA AI cloud.
We look forward to telling you
even more about our collaboration
very soon.
For omniverse, graphics rendering
and generative AI
like text-to-image and text-to-video,
we are announcing
L40. L40
is up to ten times the performance
of NVIDIA's T4,
the most popular cloud
inference GPU.
Runway is a pioneer in generative
AI. The research team
was a key creator of stable diffusion
and its predecessor
latent diffusion. Runway
is inventing generative AI models
for creating and editing content.
With over 30 AI magic
tools, their service is
revolutionizing the creative process
all from the cloud.
Let's take a look.
Runway is making amazing AI-powered
video editing and imagery tools
accessible to everyone.
Powered by the latest generation of
video you can use, running locally or
in the cloud. Runway makes it possible
to remove an object from a video with
a few pressures.
Or apply different styles to video
using just an input image.
Or change the background
or the foreground of the video.
It used to take hours
to do original things can now be completed
with professional broadcast quality results
in just a few minutes.
Runway does this
by utilizing CVCuda, an open
source project that enables developers
to build highly efficient GPU-accelerated
pre- and post-processing pipelines
for computer vision workloads
and scale them into the cloud.
With NVIDIA technology,
Runway is able to make impossible
things to give the best experience to
content creators.
What previously limited pros
can now be done by you.
In fact, Runway is used
in Oscar-nominated Hollywood films
and we are placing this technology in the
hands of the world's creators.
¡24 horas!
¡Qué locura!
¡Qué guay! ¡Qué alegría verlos aquí!
Estamos casi en 3000.
¡De mi persona, ojo!
La PCI Express
H100
con Dual GPU
y V-Link.
La nueva H100 tiene 94 GB
de memoria HBM3.
La H100
puede procesar
los 175 billones de parámetros
de GPT-3.
Y apoyar servidores PCI Express
es fácil de escalar.
La única GPU en el cloud hoy
que puede prácticamente procesar
el PCI Express chat GPT
es HGX-A100.
Comparado con HGX-A100
para el procesamiento de GPT-3
un servidor estándar
con 4 paradas de H100
con Dual GPU
y V-Link
es más de 10 veces más rápido.
El H100
puede reducir el costo de procesamiento
de gran lengua de idiomas
por un orden de magnitud.
Grace Hopper es nuestra nueva
que ha dicho.
Reducir el coste de un orden de magnitud
es por ejemplo lo que hemos visto en chat GPT
por lo que hemos visto en chat GPT
frente a GPT-3.
Con Grace Hopper,
Grace corre la tabla de embeddaje
y transmite los resultados
directamente a Hopper
a través de la interfaz de alta velocidad
7 veces más rápido que PCI Express.
Los clientes quieren construir
database de AI
en varios ordenes de magnitud más grande.
Grace Hopper es el motor ideal.
Esto
es la plataforma de importancia NVIDIA.
Una arquitectura
para los trabajos de AI diversos
y el centro de datos máximo
de aceleración y elasticidad.
y el centro de datos máximo de aceleración y elasticidad.
Las industrias más grandes del mundo
hacen cosas físicas,
pero quieren construirlas digitalmente.
Omniverse
es una plataforma para la digitalización industrial
que brilla
digital y físico.
Se permiten que las industrias
desarrollen, construyan, operan y optimizarlas
productos físicos
y fáctricas digitalmente
antes de hacer una replica física.
La digitalización
aumenta la eficiencia y la velocidad
y gasta dinero.
Uno de los usos de Omniverse es el
bring-up virtual de una fáctrica
donde toda su máquina
está integrada digitalmente
antes de que la fáctrica real sea construida.
Esto reducirá los last minutes de precios,
cambios de ordenes
y planos de abastecimiento.
La integración virtual de la fáctrica
puede salvar billones de fácticas del mundo.
Creo que van a tener un impulso bestial
ahora.
Es un ejemplo de cómo Amazon
utiliza Omniverse
para automatizar,
optimizar
y planar sus
abastecimientos autónomos.
Amazon Robotics ha manufacturado
y desarrollado la mayor flota
de robots industriales móviles en el mundo.
El nuevo miembro de esta flota
es Proteus,
el primer robot abastecimiento autónomo de Amazon.
Proteus es construido
con avances de seguridad,
percepción y
tecnología de navegación.
Veamos cómo Nvidia Isisim
construida en Omniverse crea
simulaciones fotográficas
físicas para ayudar a acelerar
los abastecimientos de Proteus.
Proteus utiliza múltiples sensores
que incluyen cámaras, lidars
y sensores ultrasonic
para poder sus sistemas de software autónomos.
El equipo de Proteus
necesitaba mejorar la performance de un
marco que leía marcas fiduciales
y ayudó al robot a determinar su ubicación
en el mapa.
Necesita mucha data y el correcto tipo
para entrenar los modelos M.O.
que son dirigidos por el inicio de sensor del robot.
Con Omniverse Replicator
en Isisim, Amazon Robotics
fue capaz de generar grandes
datos sintéticos fotográficos
para mejorar el aceleramiento de los marcos
de 88.6% a 98%.
El uso de datos sintéticos
generados por Omniverse Replicator
also sped up development times
from months to days as we were able
to iteratively test and train
our models much faster than
when only using real data.
To enable new autonomous capabilities
for the expanding fleet of Proteus robots
Amazon Robotics is working towards
closing the gap from simulation to reality
building large scale multi sensor
multi robot simulations.
With Omniverse
Amazon Robotics will optimize
operations with full fidelity
warehouse digital twins.
Whether we are generating
synthetic data or developing
new levels of autonomy
Isisim on Omniverse
helps the Amazon Robotics
to save time and money
as we deploy Proteus
across our facilities.
Omniverse has unique
technologies for digitalization
and Omniverse
is the premier development platform
for USD
which serves as a common language
that lets teams collaborate
to create virtual worlds
and digital twins.
Omniverse is physically
based mirroring the laws
of physics. It can
connect to robotic systems and
operate with hardware in the loop.
It features generative AI
to accelerate the creation
of virtual worlds and Omniverse
can manage data sets of
enormous scale.
We've made significant updates to Omniverse
in every area.
Let's take a look.
Sí, la suite de Omniverse en general.
Qué guay, qué chulo.
Integrar en un chat
para programar ya.
No sé exactamente a qué se
generará.
Quiero
un...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...