Google apuesta por Gemini Intelligence para llevar la IA de Android al siguiente nivel
La función podrá automatizar tareas, leer la pantalla, ayudar en Chrome y rellenar formularios
Llegará primero a móviles Samsung Galaxy y Google Pixel compatibles este verano
Google acaba de presentar Gemini Intelligence en The Android Show, el gran evento donde se ha presentado lo último de Android 17. El nombre, que inevitablemente recuerda a Apple Intelligence, deja bastante claro por dónde van las novedades: inteligencia artificial. Pero aquí no hablamos solo de crear emojis o generar imágenes, sino de algo más ambicioso, al menos sobre el papel. La compañía quiere cambiar la forma en la que usamos nuestros dispositivos.
Entonces, ¿cómo se sostiene esa promesa? Google asegura que Gemini Intelligence permitirá automatizar tareas, leer la información que aparece en nuestra pantalla e interactuar con ella. También llegará con un asistente de navegación para Google Chrome, facilitará el relleno de formularios y actualizará Gboard para ayudarnos a dar forma a nuestros pensamientos en voz alta. Veamos con algo más de detalle en qué consiste cada novedad.
Todo lo que Gemini Intelligence lleva a Android
Google asegura que lleva meses trabajando en las funciones de automatización junto a varias aplicaciones populares de comida y transporte. El objetivo es que Gemini Intelligence pueda encargarse de ciertas tareas en nuestro lugar, no solo respondiendo preguntas, sino actuando dentro del dispositivo y de algunas aplicaciones compatibles. “Gemini se encarga de la logística para que tú puedas disfrutar del momento”, afirma la compañía.
Estos son algunos de los ejemplos que ha compartido Google:
- Reservar una bicicleta en primera fila para una clase de spinning
- Encontrar en Gmail el programa de una clase
- Añadir al carrito los libros que necesitas
Gemini Intelligence también podrá utilizar el contexto de la pantalla o de una imagen. La compañía plantea, por ejemplo, una lista de la compra abierta en una aplicación de notas. En ese escenario, bastaría con mantener pulsado el botón de encendido para activar Gemini Intelligence y pedirle por voz que cree un carrito de compra con esos productos. En teoría, el sistema se ocuparía de hacerlo. Otro ejemplo pasa por fotografiar el cartel de una actividad y pedirle que busque en Expedia un tour parecido para seis personas.
Otra de las piezas importantes de Gemini Intelligence estará en Chrome. Google quiere que su navegador en Android sea más inteligente a partir de finales de junio, con Gemini integrado para ayudarnos a investigar, resumir información y comparar contenido en la web. No se trata solo de leer una página y devolvernos un resumen, sino de acompañarnos en tareas que normalmente obligan a saltar entre varias pestañas o servicios.
Además, Chrome incorporará una función llamada Auto browse, orientada a tareas más mecánicas. Google pone como ejemplos reservar una cita o una plaza de aparcamiento. Sobre el papel, es otro paso en la misma dirección: menos interacción manual y más capacidad del sistema para encargarse de gestiones concretas.
El autocompletado de Android también dará un salto con Gemini Intelligence. Hasta ahora, Autofill with Google ha servido sobre todo para ahorrar tiempo en campos básicos, pero Google quiere llevarlo más lejos. La función podrá aprovechar la inteligencia personal de Gemini para rellenar más campos dentro de las aplicaciones y de Chrome, incluso cuando los formularios sean más largos o tengan pequeñas casillas repartidas por la pantalla.
La promesa es sencilla: que rellenar formularios desde el móvil deje de ser una tarea tan pesada. Android podrá utilizar información relevante de las aplicaciones conectadas para completar esos datos por nosotros. En cualquier caso, Google subraya un punto importante: esta integración será estrictamente opcional. Cada usuario decidirá si quiere conectar Gemini con Autofill, y esa conexión podrá activarse o desactivarse desde los ajustes.
Gboard también se actualizará con una nueva función de Gemini Intelligence llamada Rambler. El punto de partida es bastante reconocible: Android ya permite pasar voz a texto con rapidez, pero no hablamos igual que escribimos. Nos corregimos sobre la marcha, repetimos ideas, dejamos frases a medias o llenamos los huecos con muletillas. Rambler quiere encargarse precisamente de eso.
La idea es que puedas hablar de forma natural, sin tener que construir la frase perfecta antes de empezar. El sistema tomará las partes importantes de lo que digas y las ordenará para convertirlas en un mensaje más claro y conciso. Google asegura que Gboard mostrará de forma clara cuándo Rambler está activado y que el audio solo se utilizará para transcribir en tiempo real, sin almacenarse ni guardarse.
Además, Rambler estará pensado para conversaciones multilingües. Gracias al modelo avanzado de Gemini, podrá cambiar de idioma dentro de un mismo mensaje y entender el contexto aunque mezclemos varias lenguas. Google pone como ejemplo una combinación de inglés e hindi, pero la idea es más amplia: que el mensaje siga sonando a nosotros, solo que algo más pulido.
Gemini Intelligence también abrirá la puerta a widgets personalizados generados con lenguaje natural. Google lo define como un primer paso hacia una interfaz generativa dentro de Android, y ha elegido hacerlo con uno de los elementos más reconocibles del sistema: los widgets.
La función se llama Create My Widget y permitirá crear widgets a medida simplemente describiendo lo que queremos. Por ejemplo, si preparas comida para toda la semana, podrás pedirle que sugiera tres recetas ricas en proteínas cada semana y el sistema generará un panel personalizado que podrás añadir y redimensionar en la pantalla de inicio. Si vas en bici y solo te importan la velocidad del viento y la lluvia, podrás crear un widget del tiempo centrado exactamente en esos datos.
Y si pensabas que esto era todo, no: también hay espacio para el diseño. Google dice que Gemini Intelligence se apoyará en Material 3 Expressive para ofrecer una interfaz más dinámica, con animaciones pensadas para acompañar mejor cada acción y reducir distracciones. Posiblemente sea también su forma de responder a Liquid Glass de Apple, aunque la apuesta de Google parece ir por otro lado: hacer que la interfaz ayude a entender mejor cuándo Gemini escucha, procesa o actúa.
Qué teléfonos serán compatibles con Gemini Intelligence
Google ha dejado claro que Gemini Intelligence será una función exclusiva de los teléfonos Android, algo que ya podíamos imaginar por sus características. Nada de una aplicación que permita utilizar algunas de sus novedades en iPhone. Ahora bien, incluso dentro del ecosistema Android, su despliegue también estará limitado: estará enfocado en los “dispositivos más avanzados” y llegará por fases.
Según la información oficial, Gemini Intelligence llegará primero a los teléfonos Samsung Galaxy y Google Pixel compatibles tan pronto como este verano. Más adelante, a finales de año, también aterrizará en otros dispositivos, como relojes inteligentes, coches, gafas y ordenadores portátiles.
Ver todos los comentarios en https://www.xataka.com
VER 4 Comentarios