Todos mis veranos comienzan igual: en junio digo que este año no instalaré betas de los nuevos sistemas operativos de Apple, que en vacaciones aprovecharé para descansar y que si el Valencia completa un buen mercado puede pelear por Europa.
A la segunda quincena de agosto llego con betas hasta en el reloj, deseando que vuelva la rutina para espantar el estrés vacacional y rezando a Santa Cláusula, patrona de los imposibles y las causas perdidas, para que nos llegue al menos un pivote con un empeine competente.
Con lo de Mestalla no puedo hacer nada y lo de mi estrés es algo tautológico, así que al menos he aprovechado la chaladura de instalar una beta en mi único equipo de trabajo para contarles a ustedes, xatakeros, qué tal funciona Apple Intelligence en la beta de macOS Sequoia 15.1.
Empecemos: la beta de una beta
Antes que nada, afable recordatorio: esto es una beta dentro de una beta a la que aún faltan funciones por llegar. No sirve para sacar conclusiones, sino para empezar a entender la forma de integrarse y sus líneas maestras. Dicho eso, vamos al lío.
Activar Apple Intelligence a día de hoy requiere que tengamos el Mac en inglés de EE.UU. y la región emplazada allí. Solo funciona con texto en inglés, y aunque hay algún despiste en el que procesa algo en español, a priori solo inglés.
Escritura Inteligente. Lo primero que probé. Está disponible en casi cualquier campo de texto del sistema. Notas, Mail, Pages... Si escribimos o pegamos texto allí, al seleccionarlo y abrir el menú contextual veremos una nueva opción, 'Writing Tools'. Eso da acceso a todas las funciones: lectura profunda, reescritura, tono más amistoso, tono más profesional...
Es algo a destacar: Apple Intelligence no va de generar texto, no está pensado para eso. Solo se orienta a trabajar sobre el texto que escribamos. En ChatGPT o Gemini la idea es que genere texto a partir de unas indicaciones. Aquí no.
Probé a escribir una frase intencionalmente mal redactada en Pages y pedirle que la corrigiera:
"belly howl because hunger I want to eat is almost 3 and hot"
Pages lo hizo, y además mejoró la estructura de la frase.
"My stomach growls because I’m hungry and it’s almost 3 pm, and it’s hot."
Luego le pedí la función de reescritura con un tono más "profesional".
My stomach growls due to hunger, as it is almost 3 pm and the weather is hot.
Es una buena transformación y creo que es ideal para todo aquel que por el motivo que sea no redacta correctamente. Con este tipo de funciones integradas le será mucho más fácil escribir bien cuando tenga que hacerlo.
Otro ejemplo con un texto famoso: el de la campaña 'Think Different' de Apple de los noventa.
Este es el texto original:
“Here's to the crazy ones. The misfits. The rebels. The troublemakers. The round pegs in the square holes. The ones who see things differently. They're not fond of rules. And they have no respect for the status quo. You can quote them, disagree with them, glorify or vilify them. About the only thing you can't do is ignore them. Because they change things. They push the human race forward. And while some may see them as the crazy ones, we see genius. Because the people who are crazy enough to think they can change the world, are the ones who do.”
Y pasado por Apple Intelligence:
Mención para las funciones de resumen y paso de párrafos a puntos clave, ideales para sintetizar. Ya sea para ofrecer una versión breve de nuestro propio texto para quien quiera ir al grano, o ya sea para hacer lo propio con textos ajenos no muy bien estructurados.
Una función que creo que tiene bastante margen de mejora es la de la corrección ("proofreading"). Devuelve un resultado, pero no indica qué cambios ha hecho. En una frase de una línea puede servir. En un artículo de 1.800 palabras, como el de The New York Times que usé como ejemplo, hay que revisar palabra a palabra en una vista paralela para detectar las modificaciones.
Con una interfaz que enfatice con un subrayado amarillo o algo similar las diferencias que ha provocado sería mucho más útil y facilitaría la edición. Quizás haya algún cambio aquí en la versión final de Sequoia, porque es muy evidente el problema.
Los resúmenes también llegan a Safari. Si abrimos la vista de lectura en un artículo nos aparecerá un botón para pedir el resumen. No ha dado grandes resultados. Resume, sí, pero de forma tan somera que apenas alarga el titular, incluso en artículos realmente largos.
Aquí sería muy conveniente un esfuerzo más. Una cosa es resumir 1.000 palabras en cinco puntos clave de tres líneas cada uno. Otra cosa es resumir 1.000 o 3.000 palabras en poco más que un tuit.
Con el mail esta función es más útil. Recibo entre treinta y ciento veinte correos diarios (no es un farol, ya hablé de ello haciendo el recuento). En mi trabajo es como el llanto de un bebé: un mal necesario. A veces es necesario buscar la forma de resumir.
Con Apple Intelligence es muy fácil y eficaz resumir, aunque si el correo es muy denso, tiende a simplificar en exceso.
Lenguaje natural en Fotos. Es otra de las funciones importantes más allá de la escritura. Con lenguaje natural localizamos fotos o vídeos que de otra forma nos costaría mucho tiempo. Aquí, por ejemplo, busqué "Javier Lacort with sunglasses" para que me mostrase únicamente fotos donde aparezco yo, pero con gafas de sol.
Una doble curiosidad:
- Se colaron resultados en los que salgo con gafas que no son de sol, casualmente las Ray-Ban Meta que probé.
- También incluyó algo que no eran exactamente gafas de sol: mis fotos con las Vision Pro puestas.
Otro ejemplo buscando "a sunset on the sea". ¿Las encuentra? Sí, pero también se cuelan fotos que no tienen nada que ver, simplemente porque de fondo hay un atardecer. Y se nota que solo se guía por lo visual y no por la geolocalización, porque algún falso positivo mostró fotos hechas en Toledo.
Curiosidad al margen, esta es una función muy útil que mejora lo que ya era muy bueno: la capacidad para localizar fotos rápidamente, aunque también hubo algún falso positivo donde no salgo con gafas de ningún tipo.
Hay una función nativa que no pude probar por un bug achacable a la beta y mi configuración: la transcripción de notas de voz. Otra semana será.
Por último: al principio mencionaba que aunque Apple Intelligence solo funciona en inglés, hay momentos puntuales en que procesa algo en español. Son los resúmenes inteligentes de las notificaciones.
Una función que es capaz, por ejemplo, de resumir un correo en la propia notificación. De esa forma en lugar de ver su introducción ("Estimado Javier, tengo a bien escribirle para proponerle un...") podemos ver directamente el turrón: "Propuesta de entrevista con el CEO de..."). También funciona con mensajes de iMessage: si el mensaje es lo suficientemente largo, opta por mostrar un resumen.
En resumen: Apple Intelligence es conveniente y discreto, solo aparecerá cuando lo invoquemos, y cumple bastante bien lo que promete, aunque con cierto margen de mejora aún
Funciona como muchas herramientas de ChatGPT integradas en el sistema operativo, y con el axioma de que no genera ningún texto, solo trabaja sobre lo que ya hemos escrito. Ahora será cosa del usuario recordar su existencia y sacarle partido, aunque visto lo que ya ofrecen OpenAI, Claude y compañía, esta es una incursión tímida y básica a estas alturas.
Imagen destacada |
Ver 10 comentarios