Google I/O 2024: presentación oficial en directo [finalizado]

Google I/O 2024: presentación oficial en directo [finalizado]

19:00, 14 May 2024 - Mountain View

FINALIZADO

El evento ha finalizado.

  1. 20:57 CET
  2. 20:53 CET

    Xatakeros, hasta aquí el evento inaugural del Google I/O 2024. A continuación, os dejaremos los enlaces de los artículos que hemos publicado hasta momento.
    ¡Gracias por acompañarnos una vez más!

  3. 20:51 CET

    "¿Cuántas veces hemos mencionado IA hoy?", pregunta Pichai en el escenario. El público se ríe. La compañía ha dejado en claro que la tecnología de los algoritmos es muy importante para ella en este momento.

  4. 20:50 CET

    Google dice que está trabajando directamente con actores del mundo educativo para desarrollar el concepto de "aprendizaje generativo". La idea es simplificar y mejorar la planificación de evaluaciones.

  5. 20:49 CET

    Ponen de ejemplo un estudiante que se está preparando para un examen de biología. El modelo podría servirle para recordar la fórmula de la fotosíntesis. También abre la puerta a interactuar con preguntas.

  6. 20:47 CET

    Google presenta LearnLM. Una nueva familia de modelos basados en Gemini que está orientada al aprendizaje.

  7. 20:45 CET

    Google está implementando SynthID en su IA generativa. Se trata de una marca de agua que permitirá identificar que los contenidos han sido generados por una IA, algo especialmente útil en trabajaos de alto realismo.

  8. 20:43 CET

    AI-Assisted Red Teaming es un grupo que está trabajando para proteger la seguridad de los modelos. Google busca evitar que su tecnología de IA pueda ser utilizada para fines no adecuados.

  9. 20:40 CET

    Google nos lleva de viaje a India en un vídeo donde muestra cómo la tecnología de IA está siendo utilizada alrededor del mundo en diferentes idiomas.

  10. 20:39 CET

    También estará disponible un Gemma 2 con 27.000 millones de parámetros disponible para la comunidad. En este caso tendremos que esperar unas semanas.

  11. 20:37 CET

    Los modelos abiertos Gemma, señalan, están abiertos a los investigadores. Ahora han anunciado un modelo llamado PaliGemma, que es un modelo de visión, también abierto y disponible para la comunidad.

  12. 20:36 CET
  13. 20:36 CET

    Hay una demostración de Gemini 1.5 Flash en AI Studio. Cabe señalar que podemos ingresar a la plataforma para experimentar con este modelo de manera gratuita.

  14. 20:33 CET

    La compañía cuenta algunas de las ventajas de la API de Gemini 1.5. Como el análisis de horas de vídeo.

  15. 20:32 CET

    Es el turno de Android 15. Acabamos de ver una de las funcionalidades de Gemini Nano. Este modelo pequeño que funciona en local también es multimodal.

  16. 20:31 CET

    Esto es posible gracias al modelo de IA integrado en el dispositivo. Algo que permite ahorrar en transferencia de datos, pero, sobre todo, en privacidad.

  17. 20:30 CET

    Novedades relacionadas a las llamadas. Vemos a alguien intentando cometer una típica estafa por llamada. El teléfono será capaz de detectar si están intentando timarnos con una advertencia.

  18. 20:29 CET

    Además afirman que los beneficios de la multimodalidad también potencian las funciones de accesibilidad. Por ejemplo, describiendo con mayor precisión los elementos en pantalla, incluso elementos que encontramos en Internet, o cosas que están siendo captadas por la cámara.

  19. 20:28 CET

    Google afirma que implementar las funciones de IA directamente sobre el sistema operativo se traduce en una mejor experiencia.

  20. 20:27 CET

    Podremos invocar a Gemini con una pulsación larga en la barra inferior o en el botón central de nuestro Android, y todo se desarrollará en una ventana flotante. No tendremos que abrir una aplicación separada.

  21. 20:26 CET

    Gemini puede ver lo que hay en pantalla, incluso si se trata de vídeo, para ofrecernos respuestas. También podemos cargarle un documento PDF y hacerle preguntas.

  22. 20:24 CET

    Más novedades de Gemini. El asistente ahora será capaz de entender mejor el contexto para anticipar lo que queramos hacer.

  23. 20:23 CET

    'Rodea para buscar' ahora podrá resolver problemas matemáticos complejos. La aplicación lidiará con fórmulas, diagramas y gráficos. Dicen que 'Rodea para buscar' está disponible ya en 100 millones de dispositivos.

  24. 20:22 CET

    Las novedades ahora se centran en 'Rodea para buscar'. Están hablando de cómo funciona esta característica que llegó a los teléfonos Galaxy más caros en primer lugar y ha estado desplegándose en otros modelos.

  25. 20:21 CET

    Google sigue diciendo que la IA está transformando sus productos. La IA aterriza en los teléfonos Android. Hemos visto varios avances

    - Búsqueda de imágenes con rodea para buscar
    - Gemini para ayudarnos en cualquier momento

  26. 20:19 CET

    La compañía señala que Gemini continúa evolucionando. Afirman que el asistente ahora es más inteligente y más rápido. También están ampliando la cantidad de idiomas compatibles a 35 a partir de hoy.

  27. 20:17 CET

    "Puedes cargar tu tesis completa, con sus fuentes y notas", afirman. Para después interactuar con ella. Estamos hablando de que Gemini Advanced soportará hasta 2 millones de tokens.

  28. 20:16 CET

    Google dice que Gemini tiene la ventana de contexto más amplia del mundo (en relación a los otros chatbots). El modelo podrá absorber hasta 30.000 líneas de código, una hora de vídeo.

  29. 20:14 CET

    El asistente de IA de Google promete ser capaz de todo. De ayudarnos a encontrar alojamiento y programar actividades. Disponible a partir de este verano (no estamos seguros si para todos o de manera experimental).

  30. 20:13 CET

    Ahora explican cómo funciona la búsqueda dinámica de Gemini para diferentes tareas, como planificar un viaje.

  31. 20:12 CET

    También entran en escena los "Gem". Se trata de sistemas personalizados. Por ejemplo, un experto en arte.

  32. 20:11 CET
  33. 20:11 CET

    Google dice que Gemini está redefiniendo la forma en la que interactuamos con la IA. La aplicación estrenará más adelante una función "en vivo" que permitirá llevar a los usuarios los beneficios de la multimodalidad.

  34. 20:09 CET

    Algo muy interesante es que las organizaciones tendrán la posibilidad de crear sus propios "Chip" para añadir a sus espacios de trabajo con AI Teammate.

  35. 20:08 CET

    Chip, el asistente de Teammate, puede brindar respuestas en relación a todos los documentos a los que tiene acceso.

  36. 20:06 CET

    Tony Vincent de Google nos cuenta que Teammate puede integrarse en un chat de modo tal que todos los participantes de la conversación puedan ver sus respuestas e interactuar con él.

  37. 20:05 CET

    ¿Y si pudiéramos interactuar con Gemini mientras trabajamos con otras personas? Google quiere que su IA nos ayude a trabajar en conjunto. AI Teammate es la solución en este sentido.

  38. 20:04 CET

    También hay novedades en hojas de cálculo de Google. La barra lateral con Gemini nos ayudará a analizar los datos, segmentarlos y más. Todo utilizando lenguaje natural.
    Disponible a partir de septiembre en modo experimental.

  39. 20:02 CET

    El panel lateral de Gemini en Gmail ofrecerá acciones recomendadas. Por ejemplo: "ayúdame a organizar mis recibos". Dicen que nos ayudará a mejorar nuestro flujo de trabajo.

  40. 20:00 CET

    Esta función de resúmenes estará disponible de manera experimental pronto.

  41. 19:59 CET

    Google está llevando la IA generativa de Gemini a toda la bandeja de entrada, no a un correo en particular. Esto permitirá obtener información de manera holística. Interesante.

  42. 19:58 CET

    Novedades de Gmail. Empezamos a ver algunas cosas que ya habíamos visto, ahora aparentemente en etapa de despliegue. La aplicación de correo de Google tendrá un botón con el icono de Gemini que nos permitirá generar un resumen en un instante.

  43. 19:57 CET

    Atención: el nuevo panel de Gemini empezará a estar disponible en todo el mundo el próximo mes. Tendremos que ver si esto incluye también al Espacio Comunitario Europeo.

  44. 19:56 CET

    Las IA se presenta como una opción para ayudarnos a resolver problemas. Si tenemos una cámara de fotos y un mecanismo no funciona, simplemente deberíamos grabar un vídeo preguntándole a Google para encontrar la solución.

  45. 19:54 CET

    "Todo lo que necesitas es preguntar", dice Google, en relación a su nuevo enfoque de búsqueda. Nos gustaría saber exactamente cuándo podremos empezar a utilizar estas herramientas generativas. Lo sabremos pronto, probablemente.

  46. 19:53 CET

    Rose Yao cuenta cómo el sistema multimodal de Gemini permite capturar una entrada de voz y vídeo para ofrecer respuestas.

  47. 19:51 CET

    Google denomina a esto "una experiencia dinámica" que incluye varias categorías de búsqueda. No solo la búsqueda tradicional de páginas, sino también de imágenes, libros, películas, música, tiendas y más.

  48. 19:50 CET

    Más ejemplos de como Gemini en Google Search puede ayudarnos a descubrir una nueva forma de buscar.

  49. 19:49 CET

    Nos dicen que Gemini también puede planificar un evento con nosotros. Puede ayudarnos a elegir la comida perfecta y, además, ha encontrar las recetas. Es una buena forma de buscar, una forma que pretende que sea mucho más fácil conseguir lo que buscamos, sin perder calidad.

  50. 19:47 CET

    Nos muestran un ejemplo de pedirle al Google impulsado por Gemini los mejores lugares para practicar yoga y pilates. El asistente se pondrá a trabajar para nosotros de modo tal que encontremos el mejor resultado.

  51. 19:46 CET

    El buscador de Google abraza la IA generativa de Gemini. El modelo "hará la búsqueda por nosotros". La compañía dice que tiene tres pilares para ofrecer la mejor búsqueda:

    - Capacidad para rastrear información en tiempo real
    - Sistemas de calidad
    - El poder de Gemini

  52. 19:43 CET

    "Hace 25 años creamos la búsqueda para ayudar a las personas a entender las olas de información", dice Pichai. "La era Gemini llevará esto a un nivel completamente nuevo. Combinando nuestras fortalezas de infraestructura".

  53. 19:42 CET

    Pichai habla del enfoque de la compañía en centros de datos con refrigeración líquida. Y que seguirán haciendo las inversiones necesarias para tener una infraestructura de cómputo de primer nivel.

  54. 19:40 CET

    Para responder a este escenario, la compañía presenta Trillium, un chip especializado para centros de datos de nueva generación que ofrece una mejora de 4,7 veces en rendimiento informático.

  55. 19:39 CET

    Pichai nuevamente en el escenario para contarnos que el desarrollo de los modelos de IA requiere de mucha potencia informática. Dice que la demanda de computación para IA se ha multiplicado por un millón en los últimos 6 años.

  56. 19:38 CET

    Hablan de "control creativo total". Y dicen que este tipo de herramientas permitirán "a todo el mundo convertirse en director".

  57. 19:37 CET

    Google también ha estado trabajando con profesionales de la industria del cine para desarrollar esta solución de vídeo generativo. Parecen entender la necesidad de mantener cierta coherencia entre salidas de vídeo.

  58. 19:36 CET

    Veo puede crear vídeos de 1080p a partir de indicaciones textuales y de otros cuadros de vídeo. Dicen que podremos solicitar cosas como un paisaje o un timelapse. También podremos utilizar indicaciones para añadir efectos visuales y cinematográficos.

  59. 19:35 CET

    Pero las novedades no solo van de imágenes y vídeos. Google acaba de presentar "Veo". Un modelo de generación de vídeos que presume de muy buena calidad. Parece una respuesta a Sora de OpenAI.

  60. 19:34 CET

    Tendremos que ver cómo responde la industria musical a esto. Google quiere que la generación de música, con Music AI Sandbox, llegue al mundo profesional.

  61. 19:33 CET

    Eck cuenta que este modelo puede crear imágenes mucho más realistas. Puede representar la luz de una manera más creíble, más parecida a la fotografía real. También entra en escena, atención aquí, la música generativa.

    "Estamos explorando formas de trabajar con artistas para expandir su creatividad", dice el ejecutivo.

  62. 19:31 CET

    Doug Eck, director de investigación de Google Research, en el escenario. Acaba de presentar IMAGEN 3. Imagen, recordemos, es el modelo de generación de imágenes de la compañía de Mountain View.

  63. 19:30 CET

    Estamos siendo testigos de avances muy impresionantes en el campo de la IA. Las gafas se presentan como un compañero impulsado por IA que está con nosotros en todas partes.

  64. 19:29 CET
  65. 19:29 CET

    Wow, esto sí que parece estar a un nivel muy interesante. La usuaria se ha puesto unas gafas y está interactuando con el modelo de IA sin mirar el móvil. ¡Eso parece realmente cómodo!

  66. 19:28 CET

    Parece que OpenAI no está sola en el mundo de la innovación realmente multimodal. Google está esforzándose por ponerse al día. Aunque, cabe señalar, la síntesis de voz de este sistema de Google parece menos natural que el que escuchamos ayer.

  67. 19:27 CET

    Project Astra materializa avances relacionados a comprender la información multimodal y reducir el tiempo de respuesta. Vemos un vídeo de una usuaria preguntándole al modelo qué ve, y este responde inmediatamente con precisión.

  68. 19:26 CET

    Wow, están anunciando algo llamado Project Astra. Dicen que se trata de un paso hacia construir agentes de IA universales que puedan ser realmente útiles en la vida cotidiana de la gente.

  69. 19:25 CET

    También anuncia Gemini 1.5 Flash. Estamos ante un modelo más liviano en comparación con el de lanzamiento que está diseñado para la eficiencia. Pero, sobre todo, para ser rentable a nivel de tiempo de cálculo en el servidor.

  70. 19:23 CET

    Ahora, Demis Hassabis de Google DeepMind en el escenario. El líder de esta división de IA de la compañía cuenta las novedades de AlphaFold 3 prsentadas hace unos días que puedes ver en este artículo https://www.xataka.com/medicina-y-salud/deepmind-anuncia-alphafold-3-medicamentos-desarrollados-esta-ia-negocio-multimillonario-estan-muy-cerca

  71. 19:21 CET

    No estamos seguros de cuándo llegarán las mencionadas novedades.

  72. 19:21 CET

    Algo muy, pero muy importante. Vemos a Gemini en Chrome haciendo cosas realmente útiles. Recordemos que Copilot está presente desde hace tiempo en Edge.

  73. 19:19 CET

    Pichai dice que esto es posible gracias al desarrollo de la multimodalidad de sus modelos. Google se ha estado esforzando por crear un sistema capaz de combinar entrada de audio, texto y visión.

  74. 19:17 CET

    Wow, estamos viendo un avance estupendo en la IA. Este aplicativo permite analizar la información de documentación, sintetizar una voz e interactuar con los participantes. Es como si pudieras conversar con tus documentos, ¡pero por voz!

  75. 19:15 CET

    También hay una función que graba la conversación de Google Meet. Después podemos preguntarle a Gemini los puntos más importantes. Estamos, pero no estamos en la reunión y, al final, nos enteramos de todo. O al menos esa es la idea.

  76. 19:14 CET

    Novedades de Google Workspace. Pichai cuenta como Gemini se integra a Gmail y otras aplicaciones de la compañía para facilitarnos la vida.

  77. 19:13 CET

    Y también hay salto a nivel de tokens. Ahora el máximo es de 2 millones.

  78. 19:12 CET

    Gemini 1.5 Pro llega con varias novedades. Ahora tiene mayor capacidad de razonamiento. Y, lo mejor, está disponible para todos los desarrolladores a partir de ahora a nivel global.

  79. 19:11 CET

    GPT-40, recordemos, se presenta como un modelo multimodal nativo. Ahora Google está apuntando también en ese sentido con Gemini.

  80. 19:10 CET

    Siguen hablando de Gemini. La compañía dice que para liberar todo el potencial de esta tecnología el modelo "debe ser multimodal desde cero". Explican que la multimodalidad permitirá ampliar enormemente las capacidades de los productos de IA. Vamos, parece una respuesta directa a los presentado por OpenAI ayer.

  81. 19:08 CET

    Gemini potenciará la aplicación Fotos para que podamos encontrar fotos más fácilmente. La nueva función se llama "Ask fotos". Podremos preguntarle al asistente sobre nuestra biblioteca.

  82. 19:06 CET

    La experiencia de búsqueda generativa estará disponible para todos en EEUU a partir de ahora, y se desplegará a otros países más adelante.

  83. 19:06 CET

    Por el momento el evento va de repasar los avances realizados pr la compañía en el campo de la inteligencia artificial. También hablan de la experiencia de búsqueda de la que hablábamos antes.

  84. 19:04 CET

    Pichai cuenta como han estado trabajando para hacer Gemini realidad. Recuerda el lanzamiento de Gemini 1.5 Pro, que puede manejar 1 millón de tokens.

  85. 19:03 CET

    El director ejecutivo de Google está hablando de Gemini. Dice que aún estamos en los primeros días de la IA, y sugiere que todavía tenemos mucho por conocer.

  86. 19:02 CET

    La compañía de Mountain View hace un repaso de algunas de sus innovaciones impulsadas por algoritmos. Ahora Sundar Pichai en el escenario.

  87. 19:01 CET

    Esto acaba de comenzar y lo primero que ha mencionado Google ha sido "inteligencia artificial"

  88. 18:59 CET
  89. 18:57 CET

    Así están las cosas en Mountain View en este momento. 3 minutos, amigos.

  90. 18:55 CET

    En el ámbito de deseos personales, después de ver el directo de OpenAI de ayer espero que los asistentes virtuales den un salto que nos permiten utilizarlos con mayor naturalidad. Algunos llevamos años esperando esto.

  91. 18:53 CET

    En menos de 10 minutos esto comienza. Recordad que una vez finalizado el evento podrás consultar un artículo con todas las novedades.

  92. 18:52 CET
  93. 18:50 CET

    Lods Google I/O suelen ser el escenario ideal para conocer novedades sobre el sistema operativo de la compañía, así que probablemente tendremos noticias de Android 15.

    También es posible que haya algún anuncio relacionado a la búsqueda de Google. Hace un tiempo asistimos al lanzamiento de la experiencia generativa en modo experimental.

  94. 18:47 CET

    ¿Os imagináis así en un futuro? ¿Tendrá Google una respuesta al lanzamiento de OpenAI? Veamos qué podemos esperar, según rumores.

  95. 18:46 CET

    Desde el lanzamiento de ChatGPT en noviembre de 2022, Google ha intentado alcanzar el ritmo y calidad de productos con IA a OpenAI, pero todavía parece estar algunos pasos por detrás. La compañía fundada por Sam Altman, de hecho, ayer presentó una actualización de su chatbot, una novedad que nos acerca cada vez más a 'Her'.

  96. 18:43 CET

    Está previsto que a partir de las 19:00 (hora peninsular española) Sundar Pichai salga al escenario y revele algunas novedades sobre el futuro de su compañía. Tenemos razones para creer que asistiremos a anuncios relacionados sobre la inteligencia artificial.

  97. 18:41 CET

    ¡Muy buenas tardes, xatakeros! ¿Estáis listos? En poco menos de 20 minutos comenzaremos con nuestra cobertura del Google I/O, el esperado evento de desarrolladores del gigante de Mountain View. Y aquí, como siempre, estaremos cubriéndolo al pie del cañón.

FINALIZADO

Inicio