La IA generativa abre su brecha entre quien la enfoca en local y quien la enfoca en la nube. Hay sitio para ambas

  • La vía local aumenta la privacidad y no depende de la conectividad, pero dispara los recursos necesarios

  • La vía online externaliza la potencia, pero supone un gasto continuo que alguien tiene que pagar

  • Google o Apple están apostando por modelos combinados. Tienen incentivos para ello

ia local y nube
4 comentarios Facebook Twitter Flipboard E-mail

Si 2023 fue el año de la masificación de la IA generativa tras el debut de ChatGPT a finales de 2022, este año está siendo el de las tecnológicas consolidando sus apuestas iniciales en torno a ella. Y hay dos estrategias básicas: potenciar los dispositivos con IA local, y ofrecer servicios en la nube.

Por qué importa. La IA generativa en local aumenta la privacidad y reduce la dependencia de una buena conectividad para el usuario. Para el fabricante, reduce su factura de infraestructura. La que se procesa en la nube funciona de la forma opuesta: hace que las consultas salgan de nuestro dispositivo, dependen de nuestra conexión a Internet y supone un ancho de banda que el proveedor (como OpenAI o Anthropic) tiene que pagar.

En local. Aumenta el atractivo de los dispositivos y evita su obsolescencia. Pero su capacidad la limita el hardware disponible.

  • Google anunció Gemini Nano hace unos meses, su modelo pensado para tareas básicas capaces de ejecutarse en un smartphone. Mejora la experiencia del usuario sin depender de la conectividad... y sin añadir costes para la nube de Google. El enfoque está en mejorar Android y los Pixel.
  • Apple ha dejado señales de un enfoque local capaz de sacar adelante tareas básicas sin necesidad de Internet. Sobre todo para evitar dejar toda la carga de procesos en sus servidores. Ocurrió algo así con Siri: nació completamente dependiente de la nube, pero luego adquirió capacidades locales.
  • Hay modelos disponibles para ser ejecutados en local, pero requieren un cierto conocimiento técnico para instalarlos y configurarlos, y un hardware a la altura. Es posible con software como Ollama o con Opera, que permite instalar LLMs.

En la nube. Dispara la capacidad para sacar adelante tareas complejas y hace que cualquier dispositivo, aunque sea un smartphone antiguo, pueda lograr grandes resultados en poco tiempo.

  • Google mantiene las grandes novedades de Gemini en sus versiones Pro y Ultra, que procesan en sus propios servidores. Además de la necesidad de mejorar Android y los Pixel en local, Google también tiene un incentivo para la nube: vender suscripciones a Gemini Advanced y otros servicios similares.
  • Apple puede usar el método local para ahorrar costes y no dejar toda la IA generativa de iOS en manos de su conectividad, pero no puede limitarse a ella, y no lo hará: prepara tanto servidores propios como alianzas con terceros. Como...
  • OpenAI no tiene un sistema operativo propio ni un dispositivo en el que controlar procesos locales, así que lo fía todo a la nube con el mismo aliciente que Google: hacer más atractivas las suscripciones a ChatGPT Plus o a los planes corporativos.
  • Anthropic está exactamente igual que ChatGPT. Y más ahora con su expansión internacional.
  • Meta necesita ejecutar Meta AI en la nube puesto que su enfoque principal está en la integración hacia sus propias aplicaciones. Y aunque Llama 3 puede ejecutarse en local en cuatro versiones básicas, el peso y la falta de dispositivos propios (Quest y Ray-Ban al margen) les hace recorrer el camino de la nube.
  • Microsoft centra su estrategia en revitalizar productos tradicionales y alejarlos de su competencia. Windows, Office, Edge, Bing... Todo pasa por su nube en su propia infraestructura, Azure.

En Xataka | He probado Project Starline y es la experiencia más alucinante que he tenido nunca con una videollamada

Imagen destacada | Xataka con Midjourney

Inicio