Todo apunta a que Alexa tendrá versión con IA. Algunos hablan de que el servicio se llamará "Remarkable Alexa", y teóricamente competirá con chatbots con capacidad conversacional con voces sintetizadas. Puede que este sea uno de los retos más difíciles a los que se ha enfrentado jamás la compañía fundada por Jeff Bezos.
Alexa quiere hablar contigo. La evolución natural de los chatbots parece llevarnos de los actuales, en los que escribimos, a los futuros, en los que hablaremos. Es algo que ya hemos visto en las espectaculares demos de GPT-4o (OpenAI) y Project Astra (Google), por ejemplo. Amazon parece estar por fin a punto de lanzar su propia alternativa, aunque el desarrollo del proyecto ha sido caótico y el resultado, si se confirma finalmente el lanzamiento en octubre, incierto.
"Más tontos que una piedra". Hace casi una década que los asistentes de voz trataron de conquistarnos, pero Siri, Cortana, Alexa y Google Assistant han acabado teniendo un uso residual. En la mayoría de los casos los hemos usado para configurar alarmas o preguntar por el tiempo. Satya Nadella, CEO de Microsoft, dejaba clara su opinión al respecto, y afirmaba que estos desarrollos "eran más tontos que una piedra"
Miles de millones de dólares perdidos en Alexa y Echo. La rentabilidad de Alexa y de la división de hardware Amazon Echo ha sido un desastre en todo este tiempo, y se estima que solo en 2022 la empresa perdió alrededor de 10.000 millones de dólares con esta división. Sus altavoces se venden a pérdida —el precio de venta es menor que el de fabricación y distribución—, y la intención de Amazon de que sirvieran para impulsar las compras online no se ha visto satisfecha.
¿Qué tiempo hace hoy? A principios de 2023, The New York Times publicó los resultados de una encuesta singular. En ella preguntaba qué tipo de cosas le preguntaban los usuarios a sus Amazon Echo con Alexa. "Los que usaban el asistente de voz dijeron que lo utilizaban principalmente para tareas mundanas como programar temporizadores y consultar el tiempo". Da igual que Amazon planteara características llamativas como los 'Skills' para personalizar distintas interacciones con sus altavoces con Alexa: no había mucha gente que los usara.
El reto colosal de "Remarkable Alexa". Los chatbots de IA han conseguido generar mucho más interés que los asistentes de voz, y millones de usuarios los usan a diario para hacer los deberes, resumir tus reuniones, programar, o dejar de usar Google como buscador. De momento nos relacionamos con esos chatbots con chats de texto escrito y leído, pero OpenAI nos enseñó el futuro con GPT-4o: uno en el que hablaremos con las máquinas de forma natural. Ese es el colosal reto de la nueva versión de Alexa. Bueno, en realidad son dos.
¿Puede Amazon competir con OpenAI en su campo? El primer gran reto está precisamente en las prestaciones de su nueva versión de Alexa. Lo que mostró OpenAI con GPT-4o —y lo que también mostró Google con Project Astra— demuestra que la IA puede conversar de forma natural y servir por ejemplo como profesora de mates o en un singular perro lazarillo. ¿Puede competir el nuevo Alexa con esas funciones? Ahí es donde entra en juego Olympus.
Olympus al rescate. En Amazon llevan tiempo trabajando en un LLM gigantesco llamado Olympus del que teóricamente se nutrirán tanto el nuevo y remozado Alexa como su chatbot web, que tiene como nombre en clave Metis. Se desconoce la capacidad de ambos desarrollos, pero igualar a GPT-4o, aunque no es imposible, parece difícil sobre todo para un recién llegado al campo de la IA como Amazon.
La nube de Amazon puede ayudar (o no). Aunque Amazon llega tarde a este campo, lo hace con una ayuda importante: se trata del proveedor más importante del mundo de infraestructura en la nube. Su plataforma AWS ha sido uno de los pilares de esa internet que disfrutamos desde hace años, pero hay un problema: aunque han invertido en ese tipo de hardware, no están comprando chips de NVIDIA a lo bestia como sí están haciendo sus competidores. Eso hace pensar que su infraestructura no está tan preparada como otras para este ámbito, y de hecho en Financial Times indicaban en mayo cómo Amazon ha decidido esperar a chips más potentes de la compañía en lugar de comprar los actuales.
¿Pagarías por usar un Alexa con IA? Ese es el segundo gran reto de esta nueva versión. El más importante, de hecho. Teniendo en cuenta los rivales a los que se enfrenta, Amazon va a necesitar demostrar que es mejor que GPT-4o o cualquiera de sus alternativas si quiere que paguemos por él. La nueva versión de Alexa necesita, en resumen, que la necesitemos de verdad.
Imagen | Xataka con Freepik
Ver 5 comentarios
5 comentarios
crisct
En mi caso es una capa mas de mi sistema domotico, está encima del hub zigbee, ve todos los dispositivos de este e integra los que no con compatibles con Tuya (Tv, Aire acondicionado, y alguna cosita mas).
Es el control por voz de mi casa. Tengo chorrocientas escenas y comandos personalizados. donde no llega Tuya, llega alexa. Soy un power user, tengo alexa desde el dia 1 en precompra.
Pagaria la suscripcion si además del simple 'control por voz' usara esa IA para afinar la domotica.
Ejemplo: 'alexa, apaga la Tele a las 23:35 de hoy' (esto no lo entiende actualmente, solo te apaga la tele al momento) ->'De acuerdo amo y señor, Creo una programacion para apagar la Tele a las 23:35 de hoy'
Es que cualquier fase compleja, ya no funciona: 'Alexa cierrra al 80% las persianas del salon , de la cocina y del domitorio' -> 'No encuentro nngun dispositivo llamado persianas del salon, de la cocina y del domitorio'. Pero los 3 comandos por separado los entiendes, y si hago una macro tambíen lo entiendes....total acabas haciendo un ambiente llamado 'tarde de verano' que baja las persianas y lo programas cada dia a las 16:00.
Pues por estas mierdas si que pagaria una IA que me entienda mejor y que me programe las cosas...
leirbag21
Yo uso a Alexa para controlar ciertas cosas de domotica, sobre si pagaria por la IA, pues depende, si me facilita la vida para realizar los controles quizas, si solo sirve para preguntarle tonerias pues va a ser que no.
reiizumi
Temporizadores, controlar las luces y el termostato, encender la música y, muy raramente, preguntar por el clima.
El resto de usos los hace mal, ya suficientes problemas dan estos.
Si su IA va a ser como ChatGPT, aunque me pagaran no querría usarla.
pacoco123
Si no está comprando tecnología nvidia para su ia y quiere esperar a chips más potentes, no sé cómo la va a sacar este año.
KRSupman
El problema creo que sigue siendo que Amazon y cía tiene que mostrar TODO lo que se puede llegar a controlar con ello... Y no lo hace.
No es lo mismo el tiempo, el despertador, la alarma, radio, música y alguna luz y enchufe puesto en una lámpara lejana que la cantidad de cosas compatibles que se le puede asociar como termostatos, electrodomésticos, persianas, cortinas, ordenador... Y sus correspondientes rutinas. Mientras eso no se haga ver...
Y eso que pienso que será positiva la ia aún así.