Google I/O 2025: presentación oficial en directo

Google I/O 2025: presentación oficial en directo

Mountain View

EN DIRECTO

ACTUALIZACIÓN: ¡Estamos ya en directo!

Un año más, llega una de las citas más importantes del año con Google. Hoy tendrá lugar el Google I/O 2025, una de las conferencias (realmente una serie de conferencias) más importantes del año que, como no podría ser de otra manera, podrás seguirla en vivo y en directo con nosotros.

La conferencia inaugural del Google I/O 2025, aquella en la que Google presentará las novedades más jugosas, está siendo hoy, 20 de mayo, desde las 19:00 hora peninsular española. Los horarios según regiones son los siguientes:

  • España: 19:00 (18:00 en Canarias).
  • México: 11:00 AM
  • Colombia: 12:00 AM.
  • Venezuela y Chile: 1:00 PM.
  • Argentina: 2:00 PM.

En cuanto al evento, el Google I/O de este año se centrará probablemente en la inteligencia artificial, con Gemini como principal protagonista. Todo apunta a que Google anunciará nuevos modelos e integraciones de Gemini en productos como Android y el buscador, así como novedades sobre IA agéntica y Project Astra.

También se espera que Google aproveche para hablar de Android XR, el sistema operativo para dispositivos de realidad mixta. Este sistema, que dará vida a las futuras gafas de Google y Samsung (Project Moohan), integrará Gemini y representa el próximo gran paso de Google en el mercado de las smartglasses, tras intentos anteriores (y fallidos) como Daydream y Google Glass.

No se esperan anuncios de nuevo hardware como Pixel o tablets. Tampoco de Android, que tuvo un evento dedicado hace apenas unos días.

  1. 20:59 CET

    Mil gracias por habernos acompañado en este evento y por dedicarnos un ratito de vuestra tarde. Ha sido un placer, como siempre :D

    Nos despedimos, no sin antes recordaros que podéis encontrar todas las novedades presentadas en el Google I/O 2025 por aquí: https://www.xataka.com/tag/google-i-o-2025

    Abrazote enorme y hasta la próxima, Xatakeros ❤️

  2. 20:57 CET

    Ha sido un evento realmente apasionante en el que Google nos ha enseñado el futuro del buscador, donde hemos descubierto un sinfín de novedades de IA y donde, al fin, hemos visto Android XR en acción

  3. 20:56 CET

    Y eso es todo, Xatakeros! Google cierra la conferencia con la banda sonora de Mashle, que siempre es un acierto!

  4. 20:54 CET

    También habla de Wing, su sistema de reparto con drones

  5. 20:53 CET

    Sundar menciona FireSat, una red de fotografía satelital capaz de detectar incendios prácticamente en tiempo real

  6. 20:52 CET

    Vuelve Sundar Pichai al escenario, esto parece que se acaba

  7. 20:51 CET

    Gentle Monster y Warby Parker serán los primeros en lanzar gafas con Android XR

  8. 20:51 CET

    Ya hay prototipos funcionales siendo probados por partners aprobados, se vienen cositas sin duda

  9. 20:50 CET
  10. 20:50 CET

    En la demo, Nishtha está hablando Farsi y Shahram en hindi. Las gafas están escuchando, traduciendo y doblando en tiempo real

  11. 20:49 CET

    Van a hacer otra demo chula: traducción en tiempo real

  12. 20:48 CET

    Por supuesto que también saca fotos

  13. 20:47 CET

    BUENO, BUENO, BUENO, ESA VISTA PREVIA DE GOOGLE MAPS????!!!! ❤️❤️❤️

  14. 20:47 CET

    Lo menos natural es el comando "Gemini" para darle órdenes, pero luce de locos

  15. 20:46 CET

    La demo es brutal. BRU-TAL.

  16. 20:46 CET
  17. 20:45 CET
  18. 20:45 CET
  19. 20:45 CET
  20. 20:44 CET
  21. 20:44 CET
  22. 20:43 CET
  23. 20:43 CET

    VAMOS CON UNA DEMO

  24. 20:43 CET

    Y no solo en formato headset tipo Vision Pro, sino que también la van a llevar a un formato similar a las Meta Ray-Ban

  25. 20:42 CET

    OJO BOMBAZO, LAS GAFAS DE SAMSUNG Y GOOGLE, PROJECT MOOHAN, SE PODRÁN COMPRAR A FINALES DE AÑO

  26. 20:42 CET

    Así lucirá la interfaz

  27. 20:41 CET
  28. 20:41 CET

    Gemini va a tener una presencia importantísima en los headset y en Android XR

  29. 20:40 CET
  30. 20:40 CET

    Google ya conquistó los móviles con Android y está dispuesta a repetir la jugada con las gafas inteligentes

  31. 20:39 CET

    Pasamos a hablar de Android XR y esas gafas, ESAS GAFAS...

  32. 20:38 CET

    Google le acaba de poner precio a su mejor IA. Muchas de las cosas que hemos visto hoy, como Project Mariner, solo está disponible en este plan de 249,99 dólares. Fun fact: incluye Youtube Premium

  33. 20:37 CET

    Gemini AI Ultra: 249,99 dólares al mes

  34. 20:37 CET

    Gemini Pro: 19,99 dólares

  35. 20:36 CET

    Se vienen nuevos planes

  36. 20:36 CET

    La verdad que los ejemplos son bastante espectaculares y sobre todo, consistentes. Todavía recuerdo cuando flipamos con Sora y mirad dónde estamos ahora

  37. 20:34 CET

    Tus sueños cuando has cenado más de la cuenta:

  38. 20:33 CET

    Le das las fotos del sujeto o las generas con IA, le dices lo que quieres que haga el plano y cómo te lo imaginas y boom, la IA genera el clip. Muy chulo, sin duda

  39. 20:32 CET

    Y como no podría ser de otra manera, todo esto redunda en Flow, una suite de herramientas de IA para filmmakers

  40. 20:28 CET

    Y para ayudar a los usuarios y empresas a detectar el contenido generado con IA, Google ha anunciado SynthID Detector. ContentID es el sistema que detecta las infracciones de derechos de autor en YouTube, por ejemplo, y ahora van a usar una tecnología parecida para mejorar la detección de IA generativa mediante marcas de agua invisibles

  41. 20:27 CET

    Su nombre es Lyria 2 y está disponible desde ya

  42. 20:26 CET

    Aquí tenemos Music AI Sandbox, la herramienta para generar música con IA

  43. 20:24 CET

    Resumen de novedades de Gemini

  44. 20:22 CET

    Bueno bueno, es que genera hasta diálogos con interpretación de voces, muy fuerte!

  45. 20:22 CET

    Anuncian también Veo 3, el modelo de generación de vídeo que ahora no solo genera vídeo, SINO QUE TAMBIÉN GENERA AUDIO!

  46. 20:20 CET

    Image 4, el nuevo modelo de generación de imágenes, ahora con mejor comprensión y representación de los textos

  47. 20:19 CET

    Acaban de implementar Gemini en Google Chrome. Ahora será accesible desde todos lados, siempre y cuando seas suscriptor, claro.

  48. 20:18 CET

    Deep Research tiene una pinta buenísima para estudiar y digerir contenido largo

  49. 20:16 CET

    Próximamente, podremos conectar Gemini con nuestras apps y usar la voz para hacer cosas en ellas

  50. 20:15 CET

    Gemini Live ya funciona en más de 45 idiomas y en más de 150 países

  51. 20:14 CET

    Una de las claves de todo es Personal Context, es decir, cómo la IA digiere todo lo que sabe de nosotros y lo procesa para hiperpersonalizar las respuestas. Suena muy bien, pero es el tipo de implementación que arquea cejas en la Unión Europea. Veremos cuánto tarda esto en llegar

  52. 20:11 CET

    Opiniones hasta el momento, Xatakeros? No tiene mala pinta no?

  53. 20:09 CET

    Y lo lanzan hoy, ¡vaya ritmo lleva Google!

  54. 20:08 CET

    Ojo, que también podemos configurar un agente para que monitorice el precio y que, si encuentra una oferta que nos interese, pueda comprarlo por nosotros directamente

  55. 20:06 CET

    .... y genera una foto de nosotros con esa ropa puesta. DE-LO-COS

  56. 20:06 CET

    ... la IA analiza la foto de referencia y nuestra foto...

  57. 20:05 CET

    Google acaba de anunciar una función chulísima: un probador en vivo. Eliges la prenda que te guste, eliges una foto tuya y...

  58. 20:05 CET

    Y listo, la IA sugiere resultados adaptados a lo que estamos buscando

  59. 20:04 CET

    Lo segundo, pulir la búsqueda con más detalles

  60. 20:04 CET

    Lo primero, inspiración

  61. 20:03 CET

    AI Mode también van a aplicarla a las compras, faltaría más

  62. 20:01 CET

    Acaban de decir que Google Lens lo anunciaron en ese escenario en 2017, ¡¡2017!!

    Me he sentido tal que así

  63. 19:59 CET

    Project Mariner, el agente de IA, también funcionará en el modo IA, por lo que podemos decirle a Google que nos saque las entradas para un evento y dejar que lo haga automáticamente

  64. 19:58 CET

    Un ejemplo sencillo: si le preguntamos a la IA algo como "qué jugador ha marcado más goles esta temporada", Google entenderá que no queremos solo la info, sino que la mejor forma de representarlo es con un gráfico, así que lo genera automáticamente

  65. 19:57 CET

    Esto no es solo una IA, xatakeros, esto es Google cambiando por completo la forma en la que funciona Google. Ya no es solo un buscador. Ahora es un generador de respuestas para cualquier tipo de pregunta

  66. 19:54 CET

    Próximamente, las respuestas serán personalizadas en función del historial de búsqueda e incluso de la información recopilada de otras apps de Google. Huele a que esto, de llegar a Europa, tardará bastante en hacerlo

  67. 19:53 CET

    Google detecta cuándo le estamos haciendo una pregunta compleja y bebe de los datos pertinentes para ofrecer la respuesta más completa, incluyendo imágenes, mapas, recomendaciones...

  68. 19:52 CET

    Este modo estará cargado con la mejor IA de Google, afirman desde... Google, evidentemente. Usará el contexto personal, la investigación, el enfoque multimodal... Muy tocho esto, es Google digievolucionado a lo bestia

  69. 19:49 CET

    Este modo, que aparecerá en Search y genera la respuesta como Perplexity, se lanzará hoy para todos los usuarios de Estados Unidos

  70. 19:48 CET

    Y ahí va AI Mode, la respuesta de Google a Perplexity

  71. 19:48 CET

    Según Sundar Pichai, AI Overviews es el mejor lanzamiento de un producto en Google Search en una década

  72. 19:47 CET

    Vamos con Google Search, el gran producto de Google que, por supuesto, va a recibir una dosis de IA agéntica y personalizada

  73. 19:45 CET

    Un resumen de la visión de Google y lo que están haciendo con su IA. Es el futuro. Bueno no, es prácticamente el presente.

  74. 19:42 CET

    Uy, esa fotillo de unas gafas inteligentes, SE VIENEN COSITAS???!!!

  75. 19:41 CET

    Las novedades de Project Astra lucen genial. Es lo más parecido a un asistente tipo Jarvis de Iron Man. Es capaz de entender lo que queremos, lo que necesitamos y hacer cosas por sí solo, como desplazarse por un PDF hasta donde digamos

  76. 19:39 CET

    Esta es la visión de Google para Gemini: una IA que sea proactiva, potente y personal

  77. 19:38 CET

    Curioso, Gemini Robotic, un modelo para que los robots entiendan mejor el mundo que les rodea

  78. 19:36 CET

    "Gemini es actualmente el mejor modelo multimodal fundacional", afirman desde Google

  79. 19:36 CET

    Algunas veces no todo es cuestión de hacerlo rápido, sino de hacerlo despacio, pero bien. Eso es lo que hace Deep Think: investigar, procesar mejor la información y dar un resultado muuuuuucho más completo. Esto tiene buena pinta para investigadores, por ejemplo

  80. 19:34 CET

    Gemini Difussion, ideal para matemáticas o programación. Ojalá haber tenido esto hace 15 años, la verdad

  81. 19:32 CET

    Y esto es Jules, el agente de IA capaz de programar, auditar código, etc., todo por sí solo. Muy loco.

  82. 19:29 CET

    ... a esto con solo pedírselo con una línea de texto

  83. 19:29 CET

    Poca broma, que hemos pasado de esto...

  84. 19:28 CET

    La IA para tu amigo que dice tener una idea brillante y que solo necesita alguien que se la haga.

  85. 19:27 CET

    En cuanto a eficiencia, se ha mejorado un 22%. Eso a ti como usuario no te importa demasiado, pero si eres desarrollador y tienes que pagar la API de Google Gemini un ahorro del 22% no es poca cosa

  86. 19:26 CET

    Según Google, Gemini 2.5 es su modelo más seguro hasta la fecha

  87. 19:25 CET

    La verdad que la salida de audio se oye de escándalo

  88. 19:25 CET

    Aparece Tulsee Dhosi para hablar de las novedades de Gemini 2.5:

    - Mejores capacidades, como la compatibilidad con salida nativa de audio
    - Mejoras en la seguridad y transparencia
    - Mejoras en la eficiencia
    - Y más control

  89. 19:22 CET

    Nuevo modelo Gemini 2.5 Flash disponible en junio. Más potente, más completo y eficiente. Es el modelo que se usa en Google Gemini por defecto

  90. 19:19 CET

    Curioso, muchas de las novedades son solo para suscriptores. Queda claro que la IA sale cara y las empresas van a empezar a cobrar por ella

  91. 19:19 CET

    Y por supuesto que Google va a aprovechar tooooooodo lo que sabe de nosotros gracias a las demás apps de Google para ofrecernos respuestas personalizadas

  92. 19:17 CET

    Pensemos, por ejemplo, en reservar un apartamento. Le podemos pedir que nos busque un apartamento para tal o cual día y que la IA no solo nos sugiera opciones, sino que podamos ver más información o reservarlo, todo introduciendo comandos de texto o voz

  93. 19:16 CET

    Llega Agent Mode, es decir, Gemini en modo agente- tú le pides lo que quiere y la IA hace las cosas por ti

  94. 19:15 CET

    Y por supuesto que vamos a hablar de agentes, es el siguiente gran paso de la IA aplicada al usuario: que la IA haga cosas por ti en tiempo real con aplicaciones reales, como si las estuvieses usando tú

  95. 19:14 CET

    Google acaba de confirmar que Gemini Live, la capacidad para compartir la cámara en vivo y compartir la pantalla con Google Gemini, llega hoy a iOS y Android, para todos!

  96. 19:12 CET

    Más idiomas próximamente, de momento inglés-español

  97. 19:12 CET

    Y ya está disponible para suscriptores!

  98. 19:11 CET

    Otra novedad relacionada con IA y videollamadas: traducción en tiempo real con IA en videollamadas, ¡con voz! Tiene algunos fallos (como usar "ser cerca" en vez de "estar cerca"), pero tiene una pinta buenísima

  99. 19:10 CET

    Recordáis Project Starline, lo de las videollamadas en 3D que parecían hologramas de ciencia ficción? Ahora se llama Google Beam y se lanzará a finales de año, DE LOCOS!

  100. 19:09 CET

    También confirman que sirve 1.500 millones de vistas previas con IA al mes. Esta es una de las grandes novedades de Search lanzadas este año

  101. 19:08 CET

    Google procesa 480 billones de tokens al mes, una auténtica burrada, y afirma que la app de Gemini tiene 400 millones de usuarios. Nada mal.

  102. 19:06 CET

    También presumen de que su IA ha conseguido completar Pokémon Azul, todo un hito. Yo lo hice con ocho o nueve años y nadie me dedicó una diapo en un Power Point, también os digo

  103. 19:05 CET

    Y también presumen de ofrecer el mejor rendimiento y los mejores resultados en los benchmarks

  104. 19:04 CET

    Google presume de cantidad de lanzamientos relacionados con la IA

  105. 19:03 CET

    Aparece Sundar Pichai, CEO de Alphabet, para darnos la bienvenida. "Me han dicho que es la época de Gemini. Todas las épocas son la época de Gemini", afirma.

  106. 19:02 CET

    Bien cuqui Google, las cosas como son

  107. 19:02 CET

    Comenzamos viendo algunos vídeos generados con Veo, como no podría ser de otra forma

  108. 19:00 CET

    ¡Eeeeeeeeeeeeeempezamos!

  109. 18:59 CET

    Empezamos en un minuto ❤️

  110. 18:59 CET

    Lo bueno es que esto demuestra que la IA sigue pudiendo mejorar, ¡que para eso estamos aquí!

  111. 18:58 CET
  112. 18:57 CET

    Le he pedido a Google Gemini que me cuente un chiste sobre Google.

    Atención.

    Un ingeniero de Google entra a un bar.
    Le pregunta al camarero: "¿Me puedes conseguir una mesa?"
    El camarero responde: "Claro, ¿para cuántos?"
    El ingeniero dice: "Para uno, pero necesito que esté optimizada para búsquedas locales y tenga buenas reseñas."

  113. 18:55 CET

    AH BUENO, ¡Y QUE NO SE NOS OLVIDE ANDROID XR!

    Google no dijo nada del sistema operativo para headsets de realidad mixta en la conferencia de Android, así que quizá nos enseñen alguna novedad.

    Por cierto, lanzo pregunta para darle al coco: ¿creéis que las gafas llegarán a sustituir a los móviles en algún momento? 🤔

  114. 18:54 CET

    Cabe esperar que Gemini se lleve todo el protagonismo hoy. Google dejó claro que va a llevar la IA a todos lados, empezando por el móvil, pasando por los relojes y el coche y acabando en el buscador. Ya hemos visto alguna que otra pincelada, pero hoy seguro que vemos más cositas interesantes

  115. 18:51 CET

    Entre las novedades, presentaron Material 3 Expressive, el nuevo lenguaje de diseño de Android 16 que tiene una pinta brutal.

    Os dejamos la info por aquí: https://www.xataka.com/aplicaciones/android-16-estrena-uno-redisenos-importantes-historia-sistema-google-asi-material-3-expressive

  116. 18:50 CET

    En fin, volviendo al tema. El evento de hoy será por y para la IA. Es tan importante para Google que ha sacado a Android, que era uno de los grandes protagonistas de la jornada, del evento principal para dedicarle una conferencia aparte. Esta fue The Android Show y tuvo lugar el pasado 13 de mayo

  117. 18:47 CET

    De momento, Google nos está deleitando con un concierto de música bastante psicodélica (a ver si en vez de un café nos vamos a tener que tomar una biodramina)

  118. 18:44 CET

    Por cierto, ¡este año estamos en el Google I/O! Nuestro compañero Antonio está viviéndolo en vivo y en directo y nos envía esta foto, ¡no tiene mala pinta!

  119. 18:44 CET

    ¡Muy buenas Xatakeros! Bienvenidos al Google I/O 2025, el gran evento anual de Google donde vamos a hablar mucho, mucho, muchísimo de inteligencia artificial :D

    ¿Os habéis puesto ya un café? Pues id cogiendo sitio y poniéndoos cómodos, ¡que en nada le damos caña!

EN DIRECTO

Inicio