La IA que se viste: empieza la era de los dispositivos corporales basados en Inteligencia Artificial

  • En pocas semanas han sido anunciados varios wearables basados en IA

  • El uso de LLM, algoritmos de compresión y transcripción avanzada son esenciales

  • Muy posiblemente solo sea el principio de algo más

Dest Ia
3 comentarios Facebook Twitter Flipboard E-mail

La llegada de ChatGPT fue un punto de inflexión para la percepción social de la Inteligencia Artificial. Luego llegaron más herramientas de IA generativa que apuntalaron la fe en ella, pero el antes y el después lo marcó ChatGPT.

Casi un año después, con una consideración general sobre la IA bastante distinta que a estas alturas de 2022, estamos empezando a ver una corriente que va un poco más allá: la de los dispositivos corporales, o wearables, basados en Inteligencia Artificial.

Colgantes, clips, gafas

En los últimos días se han combinado varios anuncios en esta dirección. Por un lado está Rewind, la empresa que creó una aplicación casi mágica para macOS haciendo uso de varias herramientas del sistema y un fuerte algoritmo de compresión. Se basaba en una suerte de grabación permanente de la pantalla para luego, con la detección de texto, poder localizar cualquier cosa que hubiésemos visto en pantalla en el pasado.

Con su producto de software ya madurando, le toca al hardware, y de ahí nace Rewind Pendant, un colgante que graba todo aquello que decimos y escuchamos. A partir de ahí lo transcribe, cifra y almacena en nuestro smartphone.

Imagen: Rewind. Imagen: Rewind.

También ha sido el turno para Humane, que se ha pasado mucho tiempo deshojando la margarita de su enigmático desarrollo y ha acabado resultando ser una suerte de clip holográfico.Lo colocamos sobre la solapa (¿qué pasa cuando usemos camiseta?) como si fuese un micrófono inalámbrico, y en ciertos momentos proyecta información clave sobre la palma de nuestra mano u alguna otra superficie que tenga delante.

Imagen: Humane. Imagen: Humane.
Humane Jpg Imagen: Humane.

Recuerda mucho a un producto efímero de Google (dejo a su elección si estas palabras forman una tautología o no): Google Clips, un artilugio similar que iba capturando fotografías de forma continuada. No tuvo éxito, y suena a entelequia que este nuevo clip vaya a tener un desenlace distinto.

No obstante, su desarrollo tecnológico, si cumple sus promesas, tiene aspectos interesantes. Suena más razonable pensar que se trata de una empresa que busca ser comprada y no que se trata de una empresa que busca tener un éxito comercial con sus propios productos. Veremos.

También ha llegado la actualización de un producto ya conocido, las gafas de Meta y Ray-Ban, las nuevas Ray-Ban smart glasses (renuncia al apellido Stories, que le podía vincular en exceso a un uso concreto). Además de mejorar tanto en el vídeo como en el sonido, han variado su enfoque original: apuestan por ser más usadas como auriculares y también como cámara, tanto de foto como de vídeo.

En su interior, un Qualcomm Snapdragon AR1 Gen1 especialmente enfocado en la eficiencia energética para permitir un uso activo de hasta seis horas, y una IA orientada a la transcripción en vivo: cuando un usuario haga una emisión en directo usando estas gafas será así como escuche los comentarios que le van dejando en tiempo real.

Imagen: Meta. Imagen: Meta.

Y luego está Tab, otro wearable que se define como un asistente portátil basado en IA. Lo llevamos puesto a modo de colgante (ocupa como dos AirTag apilados) y dejamos que vaya registrando nuestras conversaciones, no solo con otras personas, sino las que podamos tener con nosotros mismos. No es algo que mucha gente haga tal vez, pero se supone que con este dispositivo encima tiene un sentido: dejar que escuche y recuerde lo que decimos, aunque sea una lluvia de ideas.

La idea no es tanto que almacene las transcripciones como que conserve un contexto completo sobre nosotros, como un gráfico social, y entienda qué hicimos en el pasado y qué se supone que deberíamos hacer en el futuro. O algo así, porque el proyecto es bastante críptico todavía. Se han vendido las primeras cien unidades de desarrollo, pero sigue habiendo incógnitas a su alrededor.

Su creador, por cierto, es Avi Schiffman, un chico de veinte años que hace tres creó nCoV2019.live, uno de los tableros de información más consultados a nivel mundial con los datos del COVID-19. Y rechazó ocho millones de dólares por él. Maneras de vivir.

Mientras tanto, Sam Altman y Jony Ive han mantenido reuniones para el desarrollo de un próximo dispositivo basado en IA. No sabemos si será un smartphone o tendrá otro factor de forma más estrafalario como los aquí presentados, pero la unión de estas dos personas seguramente tenga poco parangón en la industria en cuanto a potencial creativo.

Seguramente veremos muchas más propuestas en esta línea en los próximos meses. Y seguramente muchas de ellas estén muertas para dentro de unos años, porque la industria tecnológica es implacable, pero recordaremos a todas ellas como el germen de la IA que empezó a ser vestida.Por supuesto que hubo algún ejemplo previo, como también lo hubo de los LLM antes de que debutara ChatGPT, pero son estas quienes han prendido la mecha.

Imagen destacada | Xataka con DALL·E 3.

En Xataka | Hasta qué punto es legal usar gafas inteligentes como las de Facebook e ir grabando todo y a todos por la calle.

Inicio