ACTUALIZACIÓN: ¡Estamos ya en directo!
Un año más, llega una de las citas más importantes del año con Google. Hoy tendrá lugar el Google I/O 2025, una de las conferencias (realmente una serie de conferencias) más importantes del año que, como no podría ser de otra manera, podrás seguirla en vivo y en directo con nosotros.
La conferencia inaugural del Google I/O 2025, aquella en la que Google presentará las novedades más jugosas, está siendo hoy, 20 de mayo, desde las 19:00 hora peninsular española. Los horarios según regiones son los siguientes:
- España: 19:00 (18:00 en Canarias).
- México: 11:00 AM
- Colombia: 12:00 AM.
- Venezuela y Chile: 1:00 PM.
- Argentina: 2:00 PM.
En cuanto al evento, el Google I/O de este año se centrará probablemente en la inteligencia artificial, con Gemini como principal protagonista. Todo apunta a que Google anunciará nuevos modelos e integraciones de Gemini en productos como Android y el buscador, así como novedades sobre IA agéntica y Project Astra.
También se espera que Google aproveche para hablar de Android XR, el sistema operativo para dispositivos de realidad mixta. Este sistema, que dará vida a las futuras gafas de Google y Samsung (Project Moohan), integrará Gemini y representa el próximo gran paso de Google en el mercado de las smartglasses, tras intentos anteriores (y fallidos) como Daydream y Google Glass.
No se esperan anuncios de nuevo hardware como Pixel o tablets. Tampoco de Android, que tuvo un evento dedicado hace apenas unos días.
-
20:59 CET
Mil gracias por habernos acompañado en este evento y por dedicarnos un ratito de vuestra tarde. Ha sido un placer, como siempre :D
Nos despedimos, no sin antes recordaros que podéis encontrar todas las novedades presentadas en el Google I/O 2025 por aquí: https://www.xataka.com/tag/google-i-o-2025
Abrazote enorme y hasta la próxima, Xatakeros ❤️
-
20:57 CET
Ha sido un evento realmente apasionante en el que Google nos ha enseñado el futuro del buscador, donde hemos descubierto un sinfín de novedades de IA y donde, al fin, hemos visto Android XR en acción
-
20:56 CET
Y eso es todo, Xatakeros! Google cierra la conferencia con la banda sonora de Mashle, que siempre es un acierto!
-
20:54 CET
También habla de Wing, su sistema de reparto con drones
-
20:53 CET
Sundar menciona FireSat, una red de fotografía satelital capaz de detectar incendios prácticamente en tiempo real
-
20:52 CET
Vuelve Sundar Pichai al escenario, esto parece que se acaba
-
20:51 CET
Gentle Monster y Warby Parker serán los primeros en lanzar gafas con Android XR
-
20:51 CET
Ya hay prototipos funcionales siendo probados por partners aprobados, se vienen cositas sin duda
-
20:50 CET
-
20:50 CET
En la demo, Nishtha está hablando Farsi y Shahram en hindi. Las gafas están escuchando, traduciendo y doblando en tiempo real
-
20:49 CET
Van a hacer otra demo chula: traducción en tiempo real
-
20:48 CET
Por supuesto que también saca fotos
-
20:47 CET
BUENO, BUENO, BUENO, ESA VISTA PREVIA DE GOOGLE MAPS????!!!! ❤️❤️❤️
-
20:47 CET
Lo menos natural es el comando "Gemini" para darle órdenes, pero luce de locos
-
20:46 CET
La demo es brutal. BRU-TAL.
-
20:46 CET
-
20:45 CET
-
20:45 CET
-
20:45 CET
-
20:44 CET
-
20:44 CET
-
20:43 CET
-
20:43 CET
VAMOS CON UNA DEMO
-
20:43 CET
Y no solo en formato headset tipo Vision Pro, sino que también la van a llevar a un formato similar a las Meta Ray-Ban
-
20:42 CET
OJO BOMBAZO, LAS GAFAS DE SAMSUNG Y GOOGLE, PROJECT MOOHAN, SE PODRÁN COMPRAR A FINALES DE AÑO
-
20:42 CET
Así lucirá la interfaz
-
20:41 CET
-
20:41 CET
Gemini va a tener una presencia importantísima en los headset y en Android XR
-
20:40 CET
-
20:40 CET
Google ya conquistó los móviles con Android y está dispuesta a repetir la jugada con las gafas inteligentes
-
20:39 CET
Pasamos a hablar de Android XR y esas gafas, ESAS GAFAS...
-
20:38 CET
Google le acaba de poner precio a su mejor IA. Muchas de las cosas que hemos visto hoy, como Project Mariner, solo está disponible en este plan de 249,99 dólares. Fun fact: incluye Youtube Premium
-
20:37 CET
Gemini AI Ultra: 249,99 dólares al mes
-
20:37 CET
Gemini Pro: 19,99 dólares
-
20:36 CET
Se vienen nuevos planes
-
20:36 CET
La verdad que los ejemplos son bastante espectaculares y sobre todo, consistentes. Todavía recuerdo cuando flipamos con Sora y mirad dónde estamos ahora
-
20:34 CET
Tus sueños cuando has cenado más de la cuenta:
-
20:33 CET
Le das las fotos del sujeto o las generas con IA, le dices lo que quieres que haga el plano y cómo te lo imaginas y boom, la IA genera el clip. Muy chulo, sin duda
-
20:32 CET
Y como no podría ser de otra manera, todo esto redunda en Flow, una suite de herramientas de IA para filmmakers
-
20:28 CET
Y para ayudar a los usuarios y empresas a detectar el contenido generado con IA, Google ha anunciado SynthID Detector. ContentID es el sistema que detecta las infracciones de derechos de autor en YouTube, por ejemplo, y ahora van a usar una tecnología parecida para mejorar la detección de IA generativa mediante marcas de agua invisibles
-
20:27 CET
Su nombre es Lyria 2 y está disponible desde ya
-
20:26 CET
Aquí tenemos Music AI Sandbox, la herramienta para generar música con IA
-
20:24 CET
Resumen de novedades de Gemini
-
20:22 CET
Bueno bueno, es que genera hasta diálogos con interpretación de voces, muy fuerte!
-
20:22 CET
Anuncian también Veo 3, el modelo de generación de vídeo que ahora no solo genera vídeo, SINO QUE TAMBIÉN GENERA AUDIO!
-
20:20 CET
Image 4, el nuevo modelo de generación de imágenes, ahora con mejor comprensión y representación de los textos
-
20:19 CET
Acaban de implementar Gemini en Google Chrome. Ahora será accesible desde todos lados, siempre y cuando seas suscriptor, claro.
-
20:18 CET
Deep Research tiene una pinta buenísima para estudiar y digerir contenido largo
-
20:16 CET
Próximamente, podremos conectar Gemini con nuestras apps y usar la voz para hacer cosas en ellas
-
20:15 CET
Gemini Live ya funciona en más de 45 idiomas y en más de 150 países
-
20:14 CET
Una de las claves de todo es Personal Context, es decir, cómo la IA digiere todo lo que sabe de nosotros y lo procesa para hiperpersonalizar las respuestas. Suena muy bien, pero es el tipo de implementación que arquea cejas en la Unión Europea. Veremos cuánto tarda esto en llegar
-
20:11 CET
Opiniones hasta el momento, Xatakeros? No tiene mala pinta no?
-
20:09 CET
Y lo lanzan hoy, ¡vaya ritmo lleva Google!
-
20:08 CET
Ojo, que también podemos configurar un agente para que monitorice el precio y que, si encuentra una oferta que nos interese, pueda comprarlo por nosotros directamente
-
20:06 CET
.... y genera una foto de nosotros con esa ropa puesta. DE-LO-COS
-
20:06 CET
... la IA analiza la foto de referencia y nuestra foto...
-
20:05 CET
Google acaba de anunciar una función chulísima: un probador en vivo. Eliges la prenda que te guste, eliges una foto tuya y...
-
20:05 CET
Y listo, la IA sugiere resultados adaptados a lo que estamos buscando
-
20:04 CET
Lo segundo, pulir la búsqueda con más detalles
-
20:04 CET
Lo primero, inspiración
-
20:03 CET
AI Mode también van a aplicarla a las compras, faltaría más
-
20:01 CET
Acaban de decir que Google Lens lo anunciaron en ese escenario en 2017, ¡¡2017!!
Me he sentido tal que así
-
19:59 CET
Project Mariner, el agente de IA, también funcionará en el modo IA, por lo que podemos decirle a Google que nos saque las entradas para un evento y dejar que lo haga automáticamente
-
19:58 CET
Un ejemplo sencillo: si le preguntamos a la IA algo como "qué jugador ha marcado más goles esta temporada", Google entenderá que no queremos solo la info, sino que la mejor forma de representarlo es con un gráfico, así que lo genera automáticamente
-
19:57 CET
Esto no es solo una IA, xatakeros, esto es Google cambiando por completo la forma en la que funciona Google. Ya no es solo un buscador. Ahora es un generador de respuestas para cualquier tipo de pregunta
-
19:54 CET
Próximamente, las respuestas serán personalizadas en función del historial de búsqueda e incluso de la información recopilada de otras apps de Google. Huele a que esto, de llegar a Europa, tardará bastante en hacerlo
-
19:53 CET
Google detecta cuándo le estamos haciendo una pregunta compleja y bebe de los datos pertinentes para ofrecer la respuesta más completa, incluyendo imágenes, mapas, recomendaciones...
-
19:52 CET
Este modo estará cargado con la mejor IA de Google, afirman desde... Google, evidentemente. Usará el contexto personal, la investigación, el enfoque multimodal... Muy tocho esto, es Google digievolucionado a lo bestia
-
19:49 CET
Este modo, que aparecerá en Search y genera la respuesta como Perplexity, se lanzará hoy para todos los usuarios de Estados Unidos
-
19:48 CET
Y ahí va AI Mode, la respuesta de Google a Perplexity
-
19:48 CET
Según Sundar Pichai, AI Overviews es el mejor lanzamiento de un producto en Google Search en una década
-
19:47 CET
Vamos con Google Search, el gran producto de Google que, por supuesto, va a recibir una dosis de IA agéntica y personalizada
-
19:45 CET
Un resumen de la visión de Google y lo que están haciendo con su IA. Es el futuro. Bueno no, es prácticamente el presente.
-
19:42 CET
Uy, esa fotillo de unas gafas inteligentes, SE VIENEN COSITAS???!!!
-
19:41 CET
Las novedades de Project Astra lucen genial. Es lo más parecido a un asistente tipo Jarvis de Iron Man. Es capaz de entender lo que queremos, lo que necesitamos y hacer cosas por sí solo, como desplazarse por un PDF hasta donde digamos
-
19:39 CET
Esta es la visión de Google para Gemini: una IA que sea proactiva, potente y personal
-
19:38 CET
Curioso, Gemini Robotic, un modelo para que los robots entiendan mejor el mundo que les rodea
-
19:36 CET
"Gemini es actualmente el mejor modelo multimodal fundacional", afirman desde Google
-
19:36 CET
Algunas veces no todo es cuestión de hacerlo rápido, sino de hacerlo despacio, pero bien. Eso es lo que hace Deep Think: investigar, procesar mejor la información y dar un resultado muuuuuucho más completo. Esto tiene buena pinta para investigadores, por ejemplo
-
19:34 CET
Gemini Difussion, ideal para matemáticas o programación. Ojalá haber tenido esto hace 15 años, la verdad
-
19:32 CET
Y esto es Jules, el agente de IA capaz de programar, auditar código, etc., todo por sí solo. Muy loco.
-
19:29 CET
... a esto con solo pedírselo con una línea de texto
-
19:29 CET
Poca broma, que hemos pasado de esto...
-
19:28 CET
La IA para tu amigo que dice tener una idea brillante y que solo necesita alguien que se la haga.
-
19:27 CET
En cuanto a eficiencia, se ha mejorado un 22%. Eso a ti como usuario no te importa demasiado, pero si eres desarrollador y tienes que pagar la API de Google Gemini un ahorro del 22% no es poca cosa
-
19:26 CET
Según Google, Gemini 2.5 es su modelo más seguro hasta la fecha
-
19:25 CET
La verdad que la salida de audio se oye de escándalo
-
19:25 CET
Aparece Tulsee Dhosi para hablar de las novedades de Gemini 2.5:
- Mejores capacidades, como la compatibilidad con salida nativa de audio
- Mejoras en la seguridad y transparencia
- Mejoras en la eficiencia
- Y más control -
19:22 CET
Nuevo modelo Gemini 2.5 Flash disponible en junio. Más potente, más completo y eficiente. Es el modelo que se usa en Google Gemini por defecto
-
19:19 CET
Curioso, muchas de las novedades son solo para suscriptores. Queda claro que la IA sale cara y las empresas van a empezar a cobrar por ella
-
19:19 CET
Y por supuesto que Google va a aprovechar tooooooodo lo que sabe de nosotros gracias a las demás apps de Google para ofrecernos respuestas personalizadas
-
19:17 CET
Pensemos, por ejemplo, en reservar un apartamento. Le podemos pedir que nos busque un apartamento para tal o cual día y que la IA no solo nos sugiera opciones, sino que podamos ver más información o reservarlo, todo introduciendo comandos de texto o voz
-
19:16 CET
Llega Agent Mode, es decir, Gemini en modo agente- tú le pides lo que quiere y la IA hace las cosas por ti
-
19:15 CET
Y por supuesto que vamos a hablar de agentes, es el siguiente gran paso de la IA aplicada al usuario: que la IA haga cosas por ti en tiempo real con aplicaciones reales, como si las estuvieses usando tú
-
19:14 CET
Google acaba de confirmar que Gemini Live, la capacidad para compartir la cámara en vivo y compartir la pantalla con Google Gemini, llega hoy a iOS y Android, para todos!
-
19:12 CET
Más idiomas próximamente, de momento inglés-español
-
19:12 CET
Y ya está disponible para suscriptores!
-
19:11 CET
Otra novedad relacionada con IA y videollamadas: traducción en tiempo real con IA en videollamadas, ¡con voz! Tiene algunos fallos (como usar "ser cerca" en vez de "estar cerca"), pero tiene una pinta buenísima
-
19:10 CET
Recordáis Project Starline, lo de las videollamadas en 3D que parecían hologramas de ciencia ficción? Ahora se llama Google Beam y se lanzará a finales de año, DE LOCOS!
-
19:09 CET
También confirman que sirve 1.500 millones de vistas previas con IA al mes. Esta es una de las grandes novedades de Search lanzadas este año
-
19:08 CET
Google procesa 480 billones de tokens al mes, una auténtica burrada, y afirma que la app de Gemini tiene 400 millones de usuarios. Nada mal.
-
19:06 CET
También presumen de que su IA ha conseguido completar Pokémon Azul, todo un hito. Yo lo hice con ocho o nueve años y nadie me dedicó una diapo en un Power Point, también os digo
-
19:05 CET
Y también presumen de ofrecer el mejor rendimiento y los mejores resultados en los benchmarks
-
19:04 CET
Google presume de cantidad de lanzamientos relacionados con la IA
-
19:03 CET
Aparece Sundar Pichai, CEO de Alphabet, para darnos la bienvenida. "Me han dicho que es la época de Gemini. Todas las épocas son la época de Gemini", afirma.
-
19:02 CET
Bien cuqui Google, las cosas como son
-
19:02 CET
Comenzamos viendo algunos vídeos generados con Veo, como no podría ser de otra forma
-
19:00 CET
¡Eeeeeeeeeeeeeempezamos!
-
18:59 CET
Empezamos en un minuto ❤️
-
18:59 CET
Lo bueno es que esto demuestra que la IA sigue pudiendo mejorar, ¡que para eso estamos aquí!
-
18:58 CET
-
18:57 CET
Le he pedido a Google Gemini que me cuente un chiste sobre Google.
Atención.
Un ingeniero de Google entra a un bar.
Le pregunta al camarero: "¿Me puedes conseguir una mesa?"
El camarero responde: "Claro, ¿para cuántos?"
El ingeniero dice: "Para uno, pero necesito que esté optimizada para búsquedas locales y tenga buenas reseñas." -
18:55 CET
AH BUENO, ¡Y QUE NO SE NOS OLVIDE ANDROID XR!
Google no dijo nada del sistema operativo para headsets de realidad mixta en la conferencia de Android, así que quizá nos enseñen alguna novedad.
Por cierto, lanzo pregunta para darle al coco: ¿creéis que las gafas llegarán a sustituir a los móviles en algún momento? 🤔
-
18:54 CET
Cabe esperar que Gemini se lleve todo el protagonismo hoy. Google dejó claro que va a llevar la IA a todos lados, empezando por el móvil, pasando por los relojes y el coche y acabando en el buscador. Ya hemos visto alguna que otra pincelada, pero hoy seguro que vemos más cositas interesantes
-
18:51 CET
Entre las novedades, presentaron Material 3 Expressive, el nuevo lenguaje de diseño de Android 16 que tiene una pinta brutal.
Os dejamos la info por aquí: https://www.xataka.com/aplicaciones/android-16-estrena-uno-redisenos-importantes-historia-sistema-google-asi-material-3-expressive
-
18:50 CET
En fin, volviendo al tema. El evento de hoy será por y para la IA. Es tan importante para Google que ha sacado a Android, que era uno de los grandes protagonistas de la jornada, del evento principal para dedicarle una conferencia aparte. Esta fue The Android Show y tuvo lugar el pasado 13 de mayo
-
18:47 CET
De momento, Google nos está deleitando con un concierto de música bastante psicodélica (a ver si en vez de un café nos vamos a tener que tomar una biodramina)
-
18:44 CET
Por cierto, ¡este año estamos en el Google I/O! Nuestro compañero Antonio está viviéndolo en vivo y en directo y nos envía esta foto, ¡no tiene mala pinta!
-
18:44 CET
¡Muy buenas Xatakeros! Bienvenidos al Google I/O 2025, el gran evento anual de Google donde vamos a hablar mucho, mucho, muchísimo de inteligencia artificial :D
¿Os habéis puesto ya un café? Pues id cogiendo sitio y poniéndoos cómodos, ¡que en nada le damos caña!
EN DIRECTO