Las extensiones de ChatGPT para navegadores están por todos lados. Algunas son una amenaza inquietante

Captura De Pantalla 2023 06 20 A Las 10 38 50
Sin comentarios Facebook Twitter Flipboard E-mail

Desde que ChatGPT apareció en el mercado, muchísimos usuarios quisieron experimentar con este tipo de sistemas de inteligencia artificial generativa. Una de las formas más sencillas de hacerlo fue a través de extensiones de navegador, y aunque efectivamente eso daba opciones de todo tipo, ha resultado que dichas extensiones son, sobre todo, una cosa: una amenaza para la seguridad de nuestros equipos.

De todo, y mucho peligroso. Lo señalan los expertos de ciberseguridad de Kolide, que han realizado un estudio en el que dejan claro que en esa nueva oleada de extensiones IA hay muchas que directamente están pensadas para robarnos datos, algo que no es en absoluto una novedad. Otras se han desarrollado a toda velocidad y tienen términos de privacidad que son un copia-pega de cualquier otro servicio, y otras, eso es cierto, son experimentos IA de empresas conocidas y respetadas.

No usar datos sensibles o privados. El problema es que usuarios de todo el mundo están instalando estas extensiones para "juguetear" con sus prestaciones, y al hacerlo suelen introducir a menudo datos sensibles que pueden acabar donde no deben. El riesgo es especialmente algo para usuarios profesionales que hacen uso de estas extensiones en sus puestos de trabajo.

Extensiones ladronas de datos. En marzo la empresa de protección de identidad digital Guardio avisó de uno de los primeros casos descubiertos. Una extensión de Chrome llamada "Quick access to Chat GPT" estaba robando las cuentas de Facebook de los usuarios y también una lista de todas las cookies almacenadas en el navegador, incluídas las relacionadas con los tokens de seguridad.

Google no da abasto. Aunque la empresa tardó tan solo una semana en detectarla y eliminarla, el daño ya estaba hecho: 2.000 usuarios al día la habían descargado y usado. Pasó algo parecido con un montón más de extensiones que prometían por ejemplo a ChatGPT desde el navegador. Algo parecido, por cierto, pasa en los móviles, donde los usuarios incluso pagan por usar este tipo de herramientas.

Varias amenazas de seguridad. Entre las amenazas no solo está ese robo de datos sensibles, sino que incluso extensiones oficiales puedan tener problemas de seguridad —OpenAI detectó un fallo en su propia plataforma—. También está el problema con los derechos de autor: los textos, código o imágenes generadas pueden acabar siendo reproducciones parciales de obras con copyright, lo que plantea problemas legales importantes. Los moderadores de Stack Overflow se declararon en huelga por cómo el sitio estaba viéndose inundado por código generado por IA.

Prompt injection para el mal. El funcionamiento de ChatGPT ha detonado otro tipo de ciberataques llamados 'prompt injection'. La idea es simple: tratar de lograr que con un prompt específico el modelo de IA haga cosas que no debe. Así es como Microsoft Edge acabó confesándonos sus "leyes de la robótica", pero los ataques que pueden plantearse con este método pueden ir mucho más allá y ser más peligrosos. Un desarrollador llamado Simon Willison indicaba en mayo cómo la combinación de plugins de ChatGPT Plus podía acabar sirviendo para extraer datos privados.

Cómo evitarlo. El actual funcionamiento de los LLMs hace que sean vulnerables a este tipo de ataques, y no parece haber solución en el horizonte según los expertos de Kolide. De hecho, explican, la única forma de exponernos es precisamente la de no ponérselo fácil a esas extensiones (o al propio ChatGPT): no hay que introducir datos privados en estas plataformas, y tampoco conectarlas a fuentes de datos privadas. No es buena idea por ejemplo darle datos a ChatGPT sobre nuestras finanzas para que nos dé algún tipo de consejo financiero, ni tampoco preguntarle por algún tipo de diagnóstico médico preliminar dándole como referencia síntomas o datos clínicos privados y reales.

¿Y qué deben hacer las empresas? Algunas ya tienen muy claro que ChatGPT no sabe guardar secretos y eso incluye aquellos con información confidencial, así que están prohibiendo directamente el acceso a ChatGPT a sus empleados o limitándolo de forma importante. El consejo  para todas ellas es que como mínimo eduquen y formen a sus empleados en el uso de estas extensiones (y los riesgos que existen al hacerlo) y que pongan en marcha "listas blancas" de extensiones verificadas y que pueden usarse.

Imagen | Denny Müller

En Xataka | Apple y el peligroso riesgo de perder el tren de la inteligencia artificial

Comentarios cerrados
Inicio