Siri llegó hace trece años y fijó unas expectativas brutales sobre nuestra relación con nuestro smartphone a través de la voz. No las cumplió. Ni Siri, ni Alexa, ni el asistente de Google. La llegada de los LLMs les hizo languidecer en comparación.
Ahora, como parte de la llegada de Apple Intelligence, Siri se ve beneficiada con un enfoque que la hace mucho más capaz. "Natural, relevante y personal", ha dicho Apple sobre Siri.
Qué cambia. La interfaz de Siri ya no es un disco de colores en la parte baja de la pantalla. Ahora es un borde para todo el recuadro del iPhone en colores suaves que evidencian que Siri está activa.
Y ahora entiende nuestras peticiones en lenguaje natural a un nivel muy superior al visto hasta ahora, permitiendo hacer casi cualquier cosa con una simple petición normal. Falta ver sus límites.
Voz o texto. Aunque ya podíamos escribir a Siri, y no solo hablarle, desde hace muchos años como parte de un enfoque en accesibilidad, no era algo pensado para cualquier usuario ni resultaba demasiado cómodo.
Con esta nueva Siri sí hay un planteamiento mayor para el chat de texto. Podemos pedir cualquier cosa a Siri escribiendo lo que queremos, y Siri actuará.
Qué podemos pedir a Siri ahora. Algunos ejemplos de los que ha puesto Apple:
- ¿A qué hora llega el vuelo de mi madre? Si nuestra madre nos lo dijo en un mensaje o un correo, lo detecta y lo usa como respuesta.
- Muéstrame los archivos que añadí en junio.
- ¿Qué disco me recomendó mi hermana la semana pasada?
En realidad la lista no tiene fin: ya no tenemos que pensar en clave de unos comandos de voz concretos dentro de una caja de arena, sino en simplemente lo que queremos obtener. Similar a lo que supuso el salto de Google a ChatGPT.
Nuestro contexto. Apple ha anunciado que la nueva Siri se alimenta de nuestra información personal para poder darnos respuestas personalizadas en base a nuestro contexto. Nuestros archivos, imágenes, eventos, correos, mensajes, etc, se procesan en local para que Siri pueda trabajar a partir de ellos.
De esa forma, Siri puede "encontrar y comprender cosas que nunca antes pudo", según ha dicho Apple. Por ejemplo, entenderá lo que vemos en pantalla en cada momento, y tendrá la capacidad de hacer modificaciones sobre la aplicación que estamos viendo.
Un caso práctico que ha enseñado Apple: si estamos completando un formulario y tenemos que adjuntar nuestro número del permiso de conducción, Siri lo puede encontrar automáticamente si en algún momento hicimos una foto al permiso o lo escaneamos, y nos sugerirá añadir ese número con un solo toque.
Acciones vía Siri. Otro ejemplo mostrado por Apple. Queremos acceder a una foto pero no recordamos los suficientes detalles (fecha, lugar...) como para encontrarla en la búsqueda en Fotos. Le podemos pedir a Siri que nos muestre una foto nuestra en la que salíamos con una sudadera rosa... y aparece.
También podemos seguir con Siri: le pedimos que la edite de cierta forma, y luego que la añada a una nota concreta de la aplicación Notas. Y lo hace todo únicamente con indicaciones a Siri.
Ayuda. Si hay algo que queremos hacer con el iPhone y no sabemos cómo, Siri también podrá ayudarnos. Por ejemplo, podemos preguntarle cómo hacer un pantallazo, o cómo modificar un ajuste concreto, y Siri se encargará.
Cuándo llega la nueva Siri. Será parte de los próximos sistemas operativos que incluyen Apple Intelligence. Es decir, iOS 18, iPadOS 18 y macOS 15. Llegarán presumiblemente en otoño, y si Apple repite su patrón habitual, comunicará la fecha concreta cuando presente los próximos iPhone, hacia principios de septiembre.
En Xataka | Cómo instalar la beta para desarrolladores de iOS 18, iPadOS 18 o WatchOS 11
Imagen destacada | Apple.
Ver 12 comentarios