logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Muy buenas tardes, chicos y chicas, ¿qué tal estáis? Bienvenidos al Google I.O. 1.0,
me he enterado esta semana, que se puede decir también, al Google I.O. 2023. ¿Qué tal estáis?
¿Qué tal se oye? ¿Cómo estáis? Más de mil personas conectadas ahora mismo para ver la
retransmisión del Google I.O. que está a puntito de empezar, ¿vale? Estamos a 10 minutos de comenzar,
vamos a hacer una breve introducción para situarnos todos en por qué es tan importante
el evento que vamos a ver hoy, porque tengo muchas expectativas puestas en este evento y a ver cómo
sale, porque Google tiene una historial un poco raruno con esto de los eventos del Google I.O.
Estamos viviendo una época histórica, me gusta repetirlo mucho para que nadie se olvide,
estamos viviendo la revolución de la inteligencia artificial, ya esto no es hoy en unos años pasará
esto, la IA va a transformarlo todo, va a transformar la economía, la sociedad, la cultura,
no, no, ya está pasando desde hace un año, año y medio, dos años, estamos viviendo un verdadero
boom donde uno de los grandes protagonistas en esta revolución es OpenAI. OpenAI, una empresa,
un laboratorio de inteligencia artificial surgido en cuestión de años, o sea en cinco, seis,
siete años, no tendrá mucho más, ha conseguido desarrollar una tecnología tan impresionante como
es GPT-3, GPT-4, chat GPT de por medio y esto ha llegado al mundo real y ha llegado en colaboración
con Microsoft y para sorpresa de Google pues ha llegado en un momento en el que Google no tenía
los deberes hechos. Google siempre nos ha demostrado que tiene una capacidad de innovar,
de desarrollar académicamente un montón de valor dentro del mundo del deep learning,
ha desarrollado papers increíbles, trabajos increíbles, tiene una tecnología interna brutal,
gran parte de lo que se basa en los modelos GPT-3, GPT-4, chat GPT, la T de transformer,
es un paper que sale de los laboratorios de Google y ese es un solo ejemplo de lo mucho que
pueden desarrollar. Entonces estamos hablando de una empresa que innova mucho, que tiene una
capacidad de i más d brutal, pero la parte de convertir esto a producto pues les ha fallado.
Han sido, han pecado, bueno hay quien dice que han pecado de ser quizás muy, evitar grandes daños y
evitar grandes impactos sociales liberando esta tecnología, han pecado de ser demasiado
responsables y les han adelantado por la derecha. Entonces ahora este evento de hoy es el Google
IOU, este es un evento que históricamente Google utiliza para mostrar muchas cosas de desarrollo y
posiblemente en este evento será o al menos tienen la gran ventana, la gran oportunidad de pegar un
golpe sobre la mesa y por fin enseñarnos cosas que nos puedan interesar. Ya sabemos que en este
baile que está teniendo OpenAI y Microsoft por un lado frente a Google, pues Microsoft ha salido
con tecnología muy impresionante que luego se ha ido diluyendo un poco con el paso de los meses,
sacaron por ejemplo Bing Chat que fue bastante sorprendente que era el primer contacto que
tuvimos con GPT-4 conectado incluso a un buscador, eso luego se ha ido diluyendo porque es cierto
que Bing Chat ha perdido ciertas capacidades pero tenemos chat GPT también y bueno vemos como esto
compite mucho con el modelo de negocio de Google, entonces el evento de hoy va a servir un poco para
ver todo lo que Google nos puede enseñar de cara ya no sólo a hey mira somos muy buenos haciendo
un generador de imágenes mejor que Dali 2, hey somos muy buenos en dando un modelo de generación
de texto mejor que GPT-3 o que GPT-4 que era Palm que lo tenían desde hace un año, no no ya
no queremos eso, queremos acceso, queremos tocar la tecnología, queremos poder evaluar nosotros
toda esta tecnología, entonces hoy creo que es el día en el que deberían, al menos digo deberían
de mostrarnos mucha esta tecnología integrada en sus productos, que es lo que le está faltando a
Wake y creo que es lo que les pilló por sorpresa en este combo de OpenAI con Microsoft, va a ser
un evento espero que chulo pero como digo el historial de Google en los Google IOs suele
ser un poco raro porque el año pasado por ejemplo me acuerdo que fue bastante decepcionante hasta el
punto de que el directo lo acabé borrando, lo quité del canal porque no quería tener ese directo que
fue un verdadero coñazo en el canal, entonces espero que hayan aprendido la lección y espero
que sepan estar a la altura del momento histórico en esta batalla tecnológica que estamos viviendo
y por ello creo que puede ser un evento emocionante, a lo mejor no sacan nada y la semana que viene
pues sacan cosas, podría ser, a lo mejor no utilizan el Google IO como el escaparate que
debería de ser, sería un error porque creo que ahora mismo estamos bastante gente interesada,
aquí somos 1500 personas viendo esto, sé que van a sacar cosas de los pixels porque esto se ha
filtrado y tal de la división de teléfonos, que esto es raro porque ellos tienen luego también
su evento para hardware a finales de año, no me gustaría que se focalizaran tanto los pixels,
a lo mejor y mira que yo tengo un pixel, es el móvil que yo tengo, si hicieran eso tendrían
que meterse a hablar mucho de la parte de móvil y tal y creo que es quitarle tiempo a lo importante
que para mí es la inteligencia artificial, podrían sacar móviles que sí tengan integrado cosas de
inteligencia artificial, sería una pasada, Google ya lo ha hecho en años anteriores pero creo que
hoy es el día de hablar mucho sobre BART, de hablar mucho sobre la nueva colaboración que tienen
con DeepMind, ojo, o sea las cosas están moviendo tan rápido que DeepMind ya no es DeepMind, ahora
es Google DeepMind, se han fusionado, la división de Google Brain y la división de DeepMind, que no
era una división era un laboratorio independiente, pues ya no están independientes, ahora están
fusionados y si no me equivoco creo que Demis Hassabis, el CEO de DeepMind, es el que lidera
ahora toda la división de inteligencia artificial de Google, dejando a Jeff Dean creo que fuera
de esto. Son tiempos muy muy interesantes, por cierto, de DeepMind el vídeo de ayer, tenéis un
vídeo nuevo en el canal de robots jugando al fútbol, bastante chulo, no creo que veamos nada
de robots en el evento de hoy, bueno sí, Google tiene varios proyectos de robótica que podrían
enseñar porque pueden estar interesantes más allá de este. Estamos viviendo una época donde
además tenemos bosses que han salido fuera de Google, Jeffrey Hinton, este es uno de los grandes
investigadores de Deep Learning de la historia de inteligencia artificial, es uno de los de los que
elaboraron el algoritmo de backpropagation que hace funcionar todavía día de hoy las redes
neuronales y entre otros muchos proyectos que tiene, pues esta persona ha dejado la división
de Google, ha dejado Google para convertirse en una persona que ahora está haciendo activismo,
no sería la palabra, pero bueno, está hablando mucho respecto de los riesgos que tiene la inteligencia
artificial, ha querido dejar la compañía para poder tener libertad y poder opinar sobre los riesgos
asociados de esta batalla tecnológica que estamos viviendo, que hay muchos riesgos y muchos impactos
entre ellos en el mercado laboral. Es muy interesante este movimiento también, muy curioso y también cae
justo en la época en la que Google menos le interesa, porque a Google antes sí mantenía
una postura muy de oye vamos a intentar ser responsables con el desarrollo de la IA, pero
ahora que ve que la competencia está corriendo, Google también quiere correr y no le interesa
tener gente en contra, además gente que ha tenido en su plantilla y que tiene una reputación como es
Geoffrey Hinton. Entonces bueno, estamos viviendo tiempos muy interesantes, también se filtró una
carta hace unos días, supuestamente un trabajador de Google, hablando de que realmente el mayor
competidor que tiene Google ahora mismo no es OpenAI, sino el Open Source, el desarrollo que se
está viviendo a través de las filtraciones entre otras cosas de meta, modelos como Yama, que compiten
con, bueno, no vamos a decir que compite con GPT-4 porque no, pero sí con GPT-3 y está permitiendo que
toda la comunidad Open Source, como pasó con Stable Diffusion y Dali-2, estén desarrollando muy
rápido, se estén moviendo muy rápido y se están convirtiendo en un competidor real frente a estos
laboratorios, a estas grandes empresas y a los modelos de negocio que representan. Entonces este
es el estádio, este es el partido, el tablero que tenemos sobre la mesa y hoy toca que Google
mueva ficha. ¿Qué podremos esperar? Pues yo espero novedades sobre BART, me gustaría que lo abrieran
ya por fin a todo el mundo, BART para el que no lo tenga ubicado es el chat GPT de Google que salió
con cierta polémica y que parece que ha seguido desarrollándose, mejorando sus capacidades poco a
poco. Me gustaría ver una mejora porque BART hasta la fecha creo que se basa en un modelo pequeño
de Lambda que no es el modelo más potente que tiene Google disponible. Me gustaría ver que lo
abrieran para todo el mundo porque no tiene sentido que yo quiera, bueno desde España yo no puedo
probar a BART, tengo que instalarme una VPN y cosas así. Creo que Google se tiene que abrir más,
tiene que darnos acceso a muchas de las herramientas. Me gustaría ver modelos como imagen o como FEN
aquí, generación de imágenes, generación de vídeos, me gustaría ver modelos de generación
de música, me gustaría ver todas estas cosas y lo vamos a ver todos juntos. Esto empieza ya chicos,
empieza el Google IOU. Aviso navegantes, voy a estar haciendo comentarios y si toca voy a estar
parando el vídeo, vale, porque aquí estamos para comentar el evento, si no podéis ir al vídeo
original para verlo, pero aquí esto es evidentemente un directo comentado. Y al que se pase de listo por
el chat, baneado.
Y con un poco de ayuda, encontraste nuevas respuestas, descubrió nuevos lugares. Las
palabras correctas llegaron al momento correcto. Y aprendimos a decir la palabra Epicurean.
La vida se convirtió en un poco más fácil. Nuestros fotos se convirtieron en un poco mejor. Y
llegamos a un mundo en el que todos nos pertinemos.
Así que mientras estemos en el cusp de una nueva era, nuevos breakthroughs en la AI, nos imaginaremos
las formas en que podemos ayudar.
Tendremos la oportunidad de mejorar las vidas de millones de personas.
Nosotros vamos a dar a los negocios la oportunidad de durar en la roca.
Y ayudar a la sociedad a responder las preguntas más difíciles que tenemos que enfrentar.
Ahora, no tomamos esto por gratitud.
Así que mientras nuestra ambición es grande, nuestra acción siempre será responsable.
Porque nuestro objetivo es hacer que la AI sea de ayuda para todos.
Se viene, se viene, alfa-fold.
A mí este vídeo me gusta, a mí estas cositas me gustan.
Al final me dedico a hacer vídeos de AI, pues cómo no.
Qué pena que no haya traducción automática.
Os dejo los subtítulos en inglés.
Bueno, entra el escenario Sundar Pichai.
Uy, perdón, este no es el...
Aquí, y aquí lo voy a escuchar.
Venga, venga, venga, dámelo, solo a ella.
Es en directo, ¿eh?
¿Qué es eso?
¿Qué es eso?
Vale.
Ia generativa, generación de texto, imágenes.
Vale.
Usando Transformers.
Vámonos, bien, esto me gusta.
Esto me gusta.
Bien.
Ahí, ahí, a saco.
Esto lo uso mucho yo, ¿eh?
Bien, bien, bien, bien.
Bien, han ido a saco, han empezado directo.
Bien, primer ejemplo de IA generativa tipo Chalk GPT en GMEI.
Venga, nervios.
Bien, bien, bien.
Los coches emulados y todo.
A ver, está bien.
Pero... bueno.
Es un poco la evolución de los Google Maps 3D que ya teníamos.
Eso está guapo.
Eso está guapo, que simulen el tiempo, el tráfico.
Pero eso es UX.
Vale, bueno, esto es simplemente el Google Maps con capacidad 3D
y con simulación de tráfico del tiempo.
Pero no tiene mucho tema de IA como tal.
Google Photos de las primeras aplicaciones en tener
búsqueda con IA de imágenes.
Oh, no, ha borrado una llama, ¿eh?
Vale, esto es una...
Vale, vale, vale.
Oh, no, hemos perdido la imagen.
No se ha visto la comparación, pero bueno.
Ok, bien.
A ver, básicamente un editor de imágenes potenciado
por los modelos de generación de imágenes que ellos tienen.
Con instrucciones que tú puedes pedir.
Hazme el día soleado.
Mueves a la persona.
Está bien.
Bien, pero no espectacular.
O sea, esto...
Vale, esto saldrá más adelante.
Esto saldrá más adelante.
Y no me sorprende tanto como editor.
Ya hay editores con Stable Diffusion mejor que esto.
Esto nos da tantas oportunidades para realizar nuestra misión.
Para organizar la información del mundo
y hacerla accesible y útil universalmente.
Es una misión sin tiempo que se siente más relevante
con cada año pasado.
Y mirando hacia adelante, hacer AI útil para todos
es la forma más profunda en la que avanzaremos nuestra misión.
Y estamos haciendo esto en cuatro formas importantes.
Primero, con la mejora de tu conocimiento y aprendizaje
y con la mejora de tu comprensión del mundo.
Segundo, con la mejora de tu creatividad y productividad
para que puedas expresarte y hacer las cosas.
Tercero, con la mejora de los desarrolladores y de los negocios
para construir sus propios productos y servicios transformativos.
Y finalmente, con la mejora de los desarrolladores y de los negocios
responsables para que todos puedan beneficiar de AI.
Estamos muy emocionados por las oportunidades que vienen.
Nuestra capacidad de hacer AI útil para todos
se basa en avanzar continuamente nuestros modelos de la fundación.
Así que quiero tomar un momento para compartir
cómo nos estamos acercando.
El año pasado, nos habías oído hablar de Palm,
lo que causó muchas mejoras en nuestro producto.
Hoy estamos listos para anunciar nuestro modelo de Palm más reciente en producción.
Palm, modelo del lenguaje más avanzado de Google
que antes de que saliera GPT-4, era el que estaba en el top 1.
¡Ojo! ¡Nuevo modelo Palm en producción!
Palm 2.
Ahora sí toca aplaudir gente, ¿no?
La tontería del melle que era hacer ese...
Palm 2 se basa en la investigación fundamental de nuestra infraestructura más reciente.
Es muy capaz,
en una estructura más amplia,
y es muy capaz,
en una gran rango de tareas,
y fácil de implementar.
Estamos anunciando más de 25 productos y funciones
aportados por Palm 2 hoy en día.
Modales de Palm 2 ofrecen excelentes capacidades de fundación
en una gran rango de tamaños.
Los llamamos afectionadamente,

Otter,
Bison
y Unicorn.
Gekko es tan lento que puede trabajar en modelos móviles,
con diferentes tamaños del modelo.
Puf.
Vale, vale, vale.
Vale, voy a ir parando porque creo que requiere de explicaciones.
Palm es un modelo de lenguaje, al igual que GPT-3 y GPT-4 son modelos de lenguaje.
Son lo que hace funcionar a ChatGPT, lo que hace funcionar a muchas de las funcionalidades de generación de texto
que estamos viendo hoy en día y que nos están impresionando.
Palm era eso.
Yo me estaba quejando de que BART, a día de hoy, no estaba utilizando Palm.
Estaba utilizando Lambda, que era otro modelo que ellos tenían.
No estaban utilizando su modelo más potente.
Y eso no me entraba en la cabeza.
Yo hoy esperaba que anunciaran que BART iba a evolucionar a Palm.
Pero han sacado Palm 2.
Y eso mola bastante.
Y además tiene como diferentes tamaños.
Hemos visto el tamaño Gekko, el tamaño Bison, el tamaño Unicornio.
Donde cada uno son diferentes tamaños de modelo.
Entre mayor número de parámetros tenga el modelo, teóricamente sería más potente.
Y entonces tenemos versiones del modelo más pequeñas destiladas para que pueda funcionar en móvil.
Y tendremos versiones más potentes como la Unicornio, que va a ser la hostia.
Y vamos a verlo.
Vale, 100 idiomas.
Vale, vale, vale.
Guau, guau, guau.
Vale, esto lo hemos visto ya, que chat GPT y GPT-4 lo hace, ok.
Está guay.
Por fin, Google, por fin, estás haciendo cosas.
Sería la hostia que sacaran el paper.
A ver, voy a buscarse ahí.
Vale.
Vale, Medpalm es una versión, si no recuerdo mal, creo que estaba fine tuneada,
estaba reentrenada sobre datos médicos.
Creo que esto sí lo sacaron hace un par de, un mes o así.
Y lo que conseguían era reducir, pues esto, la cantidad de información que alucina,
que se inventa el modelo, no sé por qué hago comillas.
Reducir esa cantidad de información, lo cual empieza a ser útil pues para contextos médicos,
donde tú necesitas que la información que te de sea 100% rigurosa.
Pues este modelo conseguía una reducción de nueve veces.
Ahí está, fijaos cómo modelos como Medpalm 2 consiguen estar por encima en test,
que son de preguntas médicas, que bueno, que sabemos que al final del test está pensado
para evaluar a humanos, no a máquinas.
Las máquinas pues tienen cierta ventaja en algunas cosas, pero es impresionante ver
que pueden alcanzar un rendimiento que ya supera al rendimiento experto,
en este caso comparado con modelos del lenguaje antes de 2023.
Entiendo que este sería GPT 3.5.
Vale, eso es que es multimodal.
¿Cómo, cómo, cómo, cómo?
Ah, que va a salir Thomas a hablarnos más, no mal, más.
Hostia.
Hostia.
DeepMind.
Las echaba de menos, eh, en un Google IOU.
La fusión, Dios.
Ojo.
Ojo, se vienen cositas, eh.
Nos está hablando de la fusión de Google con DeepMind, que hemos hablado antes.
Mola porque eso le va a dar más presencia a todo lo que hace DeepMind, que es la hostia,
o sea, es uno de los grandes laboratorios, ya lo sabéis.
Y nos están hablando de que esto va a dar nacimiento a un modelo fundacional
que están entrenando que se llama Gemini, que nos van a contar mate ello.
Vamos a ver.
Multimodal.
Buah.
Vale, vale, vale, vale, ojo cuidado.
Este Gemini es la respuesta de Google a OpenAI.
Este es el nacimiento de una respuesta a todo lo que ha hecho OpenAI.
Palm 2, evidentemente, es la continuación del trabajo que han hecho,
pero Gemini es más.
Este es el primer nuevo.
Este es el segundo.
Este es el último.
Este es el tercero.
Este es el tercero.
Este es el tercero.
Este es el tercero.
Este es el tercero.
Este es el tercero.
Este es el tercero.
es multimodal, han comentado
y qué más han dicho, se me ha ido la cabeza.
es multimodal.
Va a estar disponible próximamente.
Va a hacer, bueno...
no sé, no sé.
Se me va.
As we invest in more advanced models,
we are also deeply investing in...
Ah vale, se me había ido, perdón.
Y ya no los paro más.
Usará herramientas, como hemos visto,
uso de APIs, uso de otras aplicaciones.
Uso de memoria y capacidad de planificación.
Todo esto son las capacidades que ha mencionado
que va a tener este sistema que es semejante
a lo que OpenAI ahora mismo está entrenando
porque es cierto que los modelos de plugins
que todavía no están disponibles para todo el mundo
se están todavía entrenando.
Es como una especie de beta o incluso de alfa.
Además basado en GPT 3.5.
Así que Gemini va a ser la respuesta
a ese movimiento.
¿Estará próximamente disponible?
Todavía no lo sabemos.
Una responsabilidad de AI.
Esto incluye tener los herramientas
para identificar el contenido
que se genera sintéticamente
cuando lo encuentres.
Dos aportaciones importantes son
la watermarking y la metadata.
La watermarking embeds información
directamente en el contenido
en formas que se mantienen
incluso a través de la edición de imágenes modestas.
Llegando adelante,
estamos construyendo nuestros modelos
de watermarking y otras técnicas
desde el principio.
Si miras la imagen sintética,
es impresionante lo real que se ve.
Así que puedes imaginar
lo importante que esto va a ser en el futuro.
La metadata
permite a los creadores de contenido
asociar un contexto adicional
con los files originales,
dando más información
cuando encuentres una imagen.
Ensuraremos que
cada una de nuestras imágenes AI
tenga esa metadata.
Hablaremos de una opción responsable
a la AI,
luego.
Como los modelos se mejoran y se están más capaces,
una de las más emocionantes
es la información que se genera
cuando se genera información
que se genera en el futuro.
La información que se genera
en el futuro.
Es decir,
el contenido que se genera
es el que se genera
cuando se genera información
que se genera en el futuro.
Una de las oportunidades más emocionantes
es hacerlos disponibles
para que la gente se entienda directamente.
Esa es la oportunidad que tenemos con BART.
Nuestro experimento
para la AI conversacional.
Estamos evolucionando rápidamente BART.
Ahora aporta una gran range
de capacidades de programación
y se ha vuelto mucho más inteligente
a través de la información.
Y como de hoy,
estamos corriendo en Palm2.
Para saber más de lo que viene,
déjame convertirlo en Sissy.
Gracias, Sundar.
Los modelos de lengua grande han capturado la imaginación del mundo,
cambiando cómo pensamos
sobre el futuro de computación.
Luchamos con BART
como un experimento de acceso límite
en un modelo de lengua larga y lenta
para obtener feedback y iterar.
Y desde entonces, el equipo ha estado trabajando duro
para hacer cambios rápidos
y lanzarlos rápidamente.
Con Palm2,
la matemática, la lógica,
y las habilidades de diseño de BART
han hecho un gran salto hacia adelante,
subiendo la habilidad de ayudar a los desarrolladores
con la programación.
BART puede ahora colaborar
con la información,
el debugging,
y la explicación de snippets de código.
BART ya ha aprendido más de 20
lenguas de programación,
incluyendo C++, Go,
JavaScript, Python,
Kotlin,
y incluso funciones de Google Sheets.
Y estamos contentos de ver
que el coding se ha vuelto
una de las cosas más populares
que la gente está haciendo con BART.
Vamos a ver un ejemplo.
Estaba jugando en Chess,
y pensé que podría programar
un movimiento en Python.
¿Cómo usaría Python
para generar el movimiento de ScholarMate en Chess?
Bien, aquí BART creó un script
para recreatar este movimiento de Chess en Python.
Y noten cómo también
se ha formado el código bien,
haciendo que sea fácil de leer.
También hemos escuchado
gran feedback de los desarrolladores
de BART.
Vale, el ejemplo que acabamos de ver,
todavía no he probado BART,
el ejemplo que acabamos de ver es generación de código,
pero el código te lo cita, es decir,
no es como ChatGPT
que lo reurgita de la memoria
de su proceso de razonamiento,
sino que te está trayendo snippets
de código de repositorios reales,
lo cual es curioso, es un poco como el Bing Chat,
pero funcionando en código.
Pero fijaos por ejemplo,
este código ya no tiene citations,
entonces evidentemente estos
modelos pueden generar código
en cualquier lugar.
Pero fijaos por ejemplo, este código ya no tiene citations,
entonces evidentemente estos
modelos pueden generar código
y PAL 2 va a generar código sin problema,
entonces es curioso que hace una fusión
entre, oye, este código lo saca de un repositorio
y este te lo genero yo, lo cual,
ojo, es interesante.
Es un modelo.
Está guay.
Yo lo haría más guapo
que sería que tu propia sesión
de Google BART
fuera un notebook de Google Collab,
es decir, que ya tuvieras la máquina,
la instancia ahí ejecutándose,
a lo mejor con una versión pro
y que puedas ejecutar al momento
y que se genere.
Por favor.
No puedo.
Muy bien, muy bien.
Muy bien.
Muy bien.
Plug-ins, plug-ins.
Se viene, es que están copiando la estrategia de OpenAI
como toca.
Muy bien, muy bien.
Está corriendo.
Se viene.
Se viene.
Vale.
Os comento lo que va a pasar.
Lo que están anunciando es que BART tiene multimodalidad.
Esto significa
puede generar como resultado
imágenes, es decir, te puede hacer búsqueda
de imágenes, ok,
image retrieval,
pero también le puedes meter imágenes
para acompañar el prompt.
Entonces lo que va a pasar es que mañana,
si no está tarde o pasado
mañana Microsoft va a decirle a OpenAI
liberad el Kraken
y el Kraken va a ser GPT-4 con imágenes
porque quieren llegar primeros.
Esto todavía no va a salir, esto va a estar, han dicho,
en unas semanas.
OpenAI en esa franja de tiempo
van a sacar a GPT-4 con imágenes, con lo cual
va a ser el siguiente escalón
de locura en este 2023
porque va a abrir, como ya sabéis, una nueva dimensión
en todo el universo chat GPT
y en todo el universo PAN.
Si me preguntan, creo que son ambos buenos chicos.
Ok.
Ahora haremos otro.
Imaginemos que soy 18 y necesito
aplicar a la universidad.
No me voy a dar cuenta de cuánto ha sido
pero es todavía un proceso
sorprendente.
Entonces, estoy pensando en las universidades pero no estoy segura
de lo que quiero centrarme en.
Estoy en juegos de video y qué tipos
de programas podrían ser interesantes.
Ok.
Esto es un comienzo útil.
Animación se ve muy interesante.
Ahora podría pedir
que me ayudara a encontrar universidades
con programas de animación en Pennsylvania.
Ok, genial, esa es una buena lista de escuelas.
Ahora, para ver dónde están,
podría decir ahora, muérenlas en un mapa.
Aquí Bard va a utilizar
Google Maps para visualizar
dónde están las escuelas.
Ahí estamos viendo
la conexión
de Bard
con herramientas
como Google Maps, etc.
Alguien ha comentado
no es multimodal
porque lo que usa Google Lens.
Y puede ser esto, hay que verlo
cuando lo saquen. GPT-4 mostraron
una demo bastante potente, la que
se veía Greg Brockman haciendo el dibujo
y que GPT-4 podía entender el dibujo
y convertir eso a código. Habría que ver
si estos sistemas tienen capacidades
porque en la parte de
oye, podemos utilizar imágenes
para como input
en chat GPT o en Bard,
puede haber mucha trampa y puede haber
mucha diferencia de cómo
rinden los sistemas. Un sistema multimodal
puro debería estar entrenado con esta
capacidad de analizar
la imagen por completo y esta información, ya
esa representación de la imagen, utilizarla
para generar el texto. Otra cosa
podría ser que tú, como hicimos en el directo
de plugins, un directo donde en una hora
hora y media
programamos una herramienta como la que acaban
de mostrar aquí, tú puedes conectar
a chat GPT con un modelo de visión.
El modelo de visión, que
es unimodal porque solo entiende imágenes,
te genera un resultado
de lo que hay en esa imagen. Y ese
resultado luego tú lo puedes meter como input
al modelo chat GPT
para que trabaje con esa información.
No es lo mismo, no es exactamente lo
mismo. Y te digo, en ese
rango, en ese gradiente de posibilidades,
pues hay sistemas que pueden rendir mejor
o peor. ¿Cómo se sabe esto?
Que saquen los sistemas, que cada uno saque los sistemas
y se harán pruebas, haremos benchmarks
y veremos cuál rinde mejor.
Voy a mirar si OpenAI no ha sacado
nada por ahora. Tengo miedo
de que saquen algo hoy.
Por ahora nada.
Vale.
Eso está guay.
Conexiona Wall Sheets.
De nuevo, fijaos aquí el detalle.
Esto no es tanto
BART usando
herramientas, ¿vale? O sea, daros cuenta, aquí
no es BART usando de forma efectiva
herramientas, es exportando,
son conectores para exportar la información
que tienes en BART a Google
Sheets, a Google Maps.
Ok, pero no es lo
mismo, ¿vale?
Para que lo tengamos en cuenta. Es que podría parecer que
están llegando los dos sistemas al mismo nivel
y a lo mejor no están así.
Lo que molaría sería una integración
donde yo ahora le puedo decir a BART, vale, la columna 1 y la 3
me hacen un cálculo y que eso
funcione. Eso ya sería más interesante.
Han copiado los de...
Han copiado los de chat GPT.
Ostras.
Uf, esto tiene mucho, ¿eh?
Esto tiene mucho.
Esto tiene mucho.
Vale, vale, vale, vale.
Paramos aquí porque aquí hay una cosa muy interesante
a analizar. Google tiene
generador de imágenes súper
potente.
¿Vale?
¿Vale?
¿Vale?
¿Vale?
Generador de imágenes súper potente.
Mejor que Dali 2.
Desde hace un año. ¿Por qué no lo están
utilizando? ¿Por qué no lo están utilizando?
¿Por qué se han ido a Adobe Firefly?
Porque ahí pueden competir en una cosa
que OpenAI por ahora no puede.
Han hecho una alianza
o lo están... No sé cuál es el acuerdo
comercial que han llegado, pero Adobe Firefly
está entrenado sobre un dataset
con imágenes licenciadas.
Que no van a tener problemas legales.
No es Dali 2, ¿vale?
Si de repente en Estados Unidos
un juez dice, oye, todo esto es
ilegal, Mid-Journey ilegal, StableDiffusion
ilegal, Dali 2 ilegal,
de repente Google dice, pues mira,
yo tengo Adobe Firefly
y funciona.
No es mejor que Mid-Journey,
pero es más
seguro.
No es mejor que
Mid-Journey,
pero es más seguro.
¿Cómo que en inglés?
¿Pero en inglés pero en español también o no?
¿Estamos o no estamos?
Han abierto ahora.
Señora, I know how to speak English.
Can I use it please?
40 languages soon.
Es increíble ver la velocidad de progreso hasta ahora.
Más modelos avanzados,
tantas nuevas capacidades,
y la habilidad de incluso más personas
para colaborar con BARD.
Y cuando llegue el momento en que
todos estos desarrollos
ya son productos,
ya no hay un paper donde te hablen de un modelo
estático en el tiempo,
sino que se van agregando cosas
y se me antoja un poco raro.
Pero bueno, quiero BARD en español por favor,
o en inglés, pero quiero BARD.
Y cuando estemos listos para mover BARD
a nuestro modelo de Gemini,
estoy muy emocionada de que hay más avanzos para venir.
Así que es donde vamos con BARD,
conectando herramientas de Google
y servicios increíbles a través de la web
para ayudarte a hacer y crear
cualquier cosa que puedas imaginar
a través de una colaboración fluida
con nuestros modelos de lengua más capaces,
más grandes.
Hay mucho que compartir en los días que vienen.
Y ahora, para escuchar más
sobre cómo los modelos de lengua más grandes
permiten las características productivas
de la siguiente generación,
voy a enviarlo a APARNA.
Desde el principio,
el espacio de trabajo fue construido
para que te permitiera colaborar
en tiempo real con otras personas.
Ahora, puedes colaborar en tiempo real
con la AI.
La AI puede actuar como un coche,
un compañero de pensamiento,
una fórmula de inspiración,
y también un boost de productividad
a través de todas las aplicaciones
del espacio de trabajo.
Nuestros primeros pasos con la AI
como colaborador fueron a través de la
Feature Help Me Write en Gmail
y Docs, que se lanzaron
a los testadores de confianza en marzo.
Nosotros hemos sido realmente abiertos
por las formas claves y creativas
que usan estas features,
desde las escrituras de escrituras,
pichas de negocios,
planos de proyectos,
salarios de clientes, y mucho más.
Desde entonces,
hemos estado ocupados en expandir
estas fuentes de ayuda
a través de más superficies.
Te voy a mostrar algunos ejemplos.
Uno de nuestros casos más populares
de uso es la descripción del trabajo
de los trustee.
Cada negocio,
grande o pequeño,
tiene que contratar a la gente.
Una buena descripción del trabajo
puede hacer toda la diferencia.
Aquí es como Docs ha estado ayudando.
Por ejemplo, si haces una tienda de moda
y tienes que contratar a un diseñador textil.
Para empezar,
entras un par de palabras
como promedio.
Descripción de trabajo de nivel senior
para un diseñador textil.
Docs lo llevarán a ese promedio,
lo enviarán al modelo de POM2
y veamos lo que saldrá.
No malo.
Con solo 7 palabras,
el modelo salió, con un buen punto de comienzo,
escribido muy bien para mí.
Puedes usarlo
y customizarlo
para el tipo de experiencia,
educación, y habilidad que este trabajo
necesita, te salvando
mucho tiempo y esfuerzo.
Ahora,
vamos a ver
cómo puedes
ser más organizado
con las páginas.
Ahora.
Muchas gracias, Jonathan.
Está disponible para el público en general.
Algunas cosas están saliendo hoy,
otras están abriéndolas en algunos países.
Depende.
Esto mola también.
Eso está guay.
O sea, se acaban de sacar
un template que te puede servir
de la manga, o sea, lo de las páginas,
de las páginas,
de las páginas,
de las páginas,
de las páginas,
de las páginas,
de las páginas,
de las páginas,
que te puede servir de la manga.
O sea, los datos evidentemente son falsos, pero
esto, bastante, bastante bien.
La model
decidió lo que podrías necesitar.
La mesa de generación tiene cosas como el nombre del chico,
información de cliente, notas, etc.
Esto es un buen comienzo para que te
estén a comprobar.
Sheets lo han hecho fácil para que te empieces
a empezar, así que puedes volver a hacer lo que
te gusta.
Hablando de volver a hacer cosas que te
gustan, hablámos de las páginas Google.
La gente usa páginas
por la historia todo el tiempo,
no importa en el trabajo o en
sus vidas personales.
Por ejemplo, tienes a tu familia
extensa para colectar anécdotes,
haikus, bromas,
para el 50º aniversario de tu familia
en un techo de slide.
Todo el mundo lo hace un poco,
pero tal vez este techo pueda
tener más pizazz.
Vamos a elegir uno de los slides
y usamos el poema en el techo
como promedio para la generación de la imagen.
El mamá
le gusta la pizza, chiquita y verdadera,
y el papá su favorito es
un pan de fondue. Vamos a hacer
y ver qué viene con.
¿Este es?
En la parte de atrás, el cuento es un input
para los modelos de imagen textuales. Y sabemos que es
imposible que el usuario sea feliz con solo una opción,
así que generamos unos 68 imágenes
para que tengas la capacidad
de elegir y refinar.
¡Wow! Tengo
unos imágenes de pizza fondue
que son riquísimas y deliciosas.
Ahora, este estilo es un poco
extraño para mí, así que voy a
pedirlo de nuevo.
Vamos a cambiar el estilo
a la fotografía y
le damos un like.
¡Solo es raro, pero funciona para mí!
Puedes divertirse sin fin
con esto, sin límites de
chiquita o creatividad.
Empecemos el próximo mes.
Los testadores de Trusted podrán probar
esto y seis más
funciones de AI generativas en el
workspace. Y luego de este año,
todo esto será
generalmente disponible para los usuarios
en los usuarios de Workspace
a través de un nuevo servicio
llamado Duet AI
para el workspace.
Pasando un poco hacia atrás,
te mostré algunos ejemplos
poderosos de cómo el workspace
puede ayudarte a hacer más
con solo un par de palabras
como promesas.
En este caso,
vamos a ver
un ejemplo de cómo
el workspace puede ayudarte a hacer más
con solo un par de palabras
como promesas.
En este caso,
en este caso,
en este caso,
vamos a ver
cómo va tipo
PROMES DOCTABULARES
con PROMPTS.
Proms son un Alert
lo pongo en el chat para que haga el copypaste
mi abuelo Mira y yo
estamos trabajando en una historia espantosa
para Summer Camp
ya hemos escrito algunos parágrafos
pero ahora estamos atrapados
vamos a conseguir algo de ayuda
como puedes ver
lanzamos un panel de lado
algo que el equipo llamamos
SIDEKICK
SIDEKICK enseña y procesa
el documento
y ofrece algunas sugerencias
de PROMPTS
si miramos cerca
podemos ver algunas de las sugerencias
como, ¿qué sucedió a la Golden Seashell?
¿qué está pasando?
¿qué está pasando?
vamos a probar la opción de la Seashell
y ver qué viene de vuelta
ahora, lo que está sucediendo detrás de las escenas
es que hemos dado todo el documento
como contexto para el modelo
junto con la sugerencia de PROMPTS
y vamos a ver qué tenemos de vuelta
la Golden Seashell fue comida por un gigante
que vive en la Cove
esto es un buen comienzo
vamos a inserir estas como notas
para que podamos continuar nuestro pequeño proyecto
ahora, una de las observaciones interesantes que tenemos
es que es más fácil
reaccionar a algo
o quizás usarlo para decir
hmmm, quiero ir en una dirección diferente
y esto es exactamente lo que AI puede ayudar
con
veo una nueva sugerencia
para generar imágenes
vamos a ver lo que esto hace
la historia tiene un pueblo, una Golden Seashell
y otros detalles
y en vez de tener que inserir todo eso
el modelo saca estos detalles del documento
y genera imágenes
estas son unas fotos cool
y supongo que mi novia va a amar estas
vamos a inserirlas en el documento
para divertirse
lo cual está bien
como estrategia está bien
pero claro, el que llega primero
el año pasado, todos trajeron hummus
¿quién no ama hummus?
pero este año, quieres un poco más de variedad
vamos a ver
lo que las personas se han inserido para traer
ahora,
en alguna parte de este documento
hay una tabla de Google donde has recogido esa información
puedes obtener ayuda
con el tipo, escribir una nota
sobre los platillos principales que las personas están traiendo
y vamos a ver
lo que nos traemos de vuelta
¡muy bien!
encontró la tabla correcta
y citó la fuente
en la sección de encontrar
te da confianza
que esto no está hecha
mira bien, puedes inserirlo directamente
en tu email
vamos a terminar con un ejemplo
de cómo esto puede ayudarte
en el trabajo
diría que estás a punto de dar una presentación importante
y que has estado
tan enfocada en el contenido
es un poco el día de la marmota
esto lo vivimos hace un mes y medio
en la presentación de Microsoft
que está subida en el canal
pero bueno
venga, venga
a ver, a ver
lo que acaba de generar son
las notas de presentación
para cada diapositiva
decirte, hola, mira, soy Elisa
tal, no sé qué
y luego,
el día de la marmota
decirte, hola, mira, soy Elisa tal, no sé qué
está guay
está bien
qué poco impresionable somos cuando ya las cosas
han pasado
esto es impresionante como tecnología
y como colaborador
y vamos a llevar esta experiencia
a Duet AI para Workspace
con eso, voy a devolverlo
a Sundar
gracias, Aparna
es emocionante ver todas las innovaciones
que vienen a Google Workspace
como la AI continúa
a mejorar rápidamente
estamos enfocados en dar sus
anuncios a nuestros usuarios
y empezando hoy, te estamos dando
una nueva forma de prevenir
algunas de las experiencias
a través de Workspace y otros productos
se llama Labs
digo nuevo, pero Google
tiene una larga historia
de traer Labs
y lo hemos hecho disponible
en toda nuestra historia también
puedes visitarlo
en google.com
slash Labs
ahora vamos a hablar de Search
Search ha sido
nuestro producto de la fundación
desde nuestros 30 años
y siempre lo hemos acercado
a poner
la confianza del usuario
sobre todo el resto
para darles una sensación de cómo estamos
llevando la generación de AI en Search
voy a invitar a Cathy
a la mesa
vamos a Google
y Bing está ahí compitiendo
no puede ser
vamos a empezar
con una búsqueda
de qué es mejor
para una familia con niños
bajo tres
y un perro
Bryce Canyon o
Arches
ahora, aunque esta es la pregunta
que tienes
probablemente no lo preguntarías
de esta manera hoy
lo romperías en pequeñas
lo cortas por la información
y luego lo peces
a ti mismo
ahora, Search
hace la pesadilla para ti
lo que ves aquí
parece bastante diferente
así que déjame primero darte una rápida tour
verás una nueva
página de resultados integrados
para que puedas obtener aún más
de una sola búsqueda
hay un snapshot
con AI
que rápidamente te da la luz de la tierra en un
tema
así que aquí puedes ver que mientras que ambos parques
son para niños
sólo Bryce Canyon tiene más opciones
para tu amigo perro
luego, si quieres ir más profundo
hay links incluidos
en el snapshot
también puedes clicar para expandir
tu vista y verás
cómo la información es corroborada
así que puedes ver más detalles
y realmente explorar
la rica de este tema
esta nueva experiencia
construye
los sistemas de rango y seguridad de Google
que hemos estado bien
atentos por décadas
y Search seguirá
siendo tu punto de salvo
de lo que hace a la web tan especial
su rango diverso de contenidos
de publicadores
a creadores
a empresas y incluso a gente
como tú y yo
así que puedes ver las recomendaciones
que nos ha ocurrido esta nueva experiencia
de buscar
las nuevas capacidades de generación de AI
que harán la investigación
más inteligente y más fácil de buscar
y como has visto, esto es realmente
especialmente útil cuando necesitas
hacer sentido a algo complejo
con múltiples ángulos para explorar
sabes, esos tiempos
cuando incluso tu pregunta tiene preguntas
así que por ejemplo
digamos que estás buscando
una buena moto
para un camión de cinco kilómetros
con Hill
esto puede ser una gran compra
así que quieres hacer tu investigación
en el snapshot de AI
verás importantes consideraciones
como motor y batería
para tomar en esas hillas
y suspensión para un rango
cómodo
debajo de eso verás
productos que se comparten con la billa
cada uno con imágenes,
revistas, descripciones de ayuda
y el precio actual
esto es construido en Google
esto es construido en Google's Shopping Graph
lo más comprensivo del mundo
de datos constantemente
cambiando productos
vendedores,
brandes, revistas y
la inventividad que hay
es de 35 billones
en realidad
hay 1.8 billones de
actualizaciones en el Shopping Graph
cada hora
así que puedes comprobar con confianza
en esta nueva experiencia
sabiendo que obtendrás resultados
frescos y relevantes
y para las preguntas comerciales
como esta
también sabemos que las advertencias
pueden ser especialmente ayudas
para conectar a la gente con información útil
y ayudar a los negocios a ser descubiertos
en línea
están aquí, claramente diseñados
y estamos explorando diferentes formas
de integrarlas, en lo que
subimos nuevas experiencias en Search
y ahora que has hecho
un poco de investigación, podrías
explorar más
así que bajo el snapshot
verás la opción de
hacer una pregunta de seguimiento
o seleccionar un siguiente paso
tapando alguna de estas opciones
te llevará a nuestro nuevo
modo de conversación
increíble
le han metido que en el buscador
cuando clicas un botón, entras en una conversación
de chat
me hubiera pensado esto
aplausos tímidos
en este modo de conversación
es una experiencia integrada
así que puedes simplemente escrochar
para ver otros resultados de la búsqueda
ahora, tal vez este E-bike
parece ser una buena opción para tu commuter
con solo un clic
puedes ver una variedad de retaladores
que lo tienen en el mercado
y algunos que ofrecen la entrega gratuita
o retornos
también puedes ver los precios actuales
incluyendo negocios
y puedes ir a un sitio de mercancía
puedes ir a la búsqueda
y aportar tu atención a lo que realmente importa
cuando buscas
te pasamos a una sesión de chat
es un calco
que no digo que este mal
pero tampoco sorprendes
es muy evidente
esto para la mayoría de usuarios que usan Google va a ser un cambio de la leche
porque nos habrán enterado de la misa a la mitad
y no sabrán que Microsoft tiene toda esta
innovación también
por eso Google hace este movimiento
tan rápido, pero que sorprende
preguntaba por aquí Rubén
con una donación
que será el siguiente movimiento de Microsoft
pues no lo se, pero Google estará esperando
para saber como avanzar
que viene después
y señales
estas son cosas que nunca podrías
haber pensado en buscar
antes
el negocio es solo un ejemplo
de donde esto puede ser útil
vamos a caminar por otro en la demo live
que dices?
especial saludo
a mi hija de 3 años
obsesionada con huesos
yo quería
enseñar a ella sobre la canción de huesos
así que déjame ir a la aplicación Google
y preguntar
por qué les gusta cantar
así que aquí
veo un snapshot
que organiza los resultados web
y me da las cosas clave que quiero saber
así que puedo entender
rápidamente que
oh, cantan por muchas razones
diferentes
para comunicarse con otros huesos, pero también
para encontrar comida
y ver más para avanzar aquí
ahora, si yo estaba con mi hija
y no estaba en la escena
frente a miles de personas
vería algunos resultados web
ahora, se ven muy buenos
ahora, creo que ella
va a poder ver uno
cerca, así que déjame preguntar
puedo ver
huesos
en California
¿será real la demo?
siempre me preguntaba
a ver un detalle, yo creo que todas estas respuestas
están evidentemente
precalculadas para evitarse riesgos
mayores, pero si no lo estuviera
lo que están mostrando es que la generación es muy
rápida, cosa que bueno, lo habría que ver
en el contexto real, pero ha generado como instantáneo
casi el resultado
$40
de nuevo, los alumnos de LLM están organizando
esta información para mí
y este proceso va a ser más rápido
por el tiempo
estos parecen
como algunas buenas opciones
creo que ella realmente va a gustar el segundo
ella está en las orcas también
las demos de vida
siempre están un poco nerviosas
estoy muy feliz de que ese fue el hueso
ok
ya te he pedido
vale
venga
bus
bus que da envidio también
sería guapísimo
qué más o es
pasar esta es la parte del copyright
vamos
es este
este es el
este es el
este es el
este es el
este es el
este es el
este es el
este es el
este es el
el
este es el
este es el
este es el
le he cutado
si
si
ctainto
ella
joana
ella
joana
ella
ella
eso
la
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b
b