Slack está usando los mensajes privados para entrenar su IA sin nuestro consentimiento. Su argumento solo lo empeora

Slack no ha pedido permiso explícito para algo que empezó a hacer por defecto, que requiere una desactivación manual y cuyo argumento no convence

Stephen Phillips Hostreviews Co Uk Ae0ix Blcjc Unsplash
6 comentarios Facebook Twitter Flipboard E-mail

Slack es una de las plataformas más populares para la comunicación empresarial, junto a Microsoft Teams. En estos últimos días ha ejercido una política en la que utiliza los datos de sus clientes para entrenar modelos de IA.

Estos datos incluyen sus mensajes y archivos privados, no solo los de las conversaciones en canales públicos para la empresa. Esto se está haciendo por defecto y sin pedir permiso explícito.

Por qué es importante. Este caso subraya el riesgo para la privacidad que supone que cada vez más empresas desarrollen herramientas de IA utilizando grandes cantidades de datos de usuarios, a menudo de formas poco transparentes. También genera dudas sobre el nivel de control que tienen personas y empresas sobre su información en servicios en la nube.

Qué ha hecho Slack. En su web, en una página recóndita sobre sus principios de privacidad, Slack reveló que sus sistemas "analizan los datos del cliente (como mensajes y archivos) enviados a Slack, así como otra información (como analíticas de uso) para entrenar nuevos modelos de IA, por defecto y sin pedir permiso específico.

La única forma de excluir los datos de una empresa es que un administrador de su equipo en Slack envíe un correo electrónico al servicio solicitando un opt-out global. Los usuarios individuales no pueden hacer este proceso.

Preocupaciones de privacidad. Slack dice que tiene controles técnicos para evitar el acceso a ciertas formas de contenido y que los datos no se filtrarán entre espacios de trabajo, pero alimentar sistemas de IA con chats privados y archivos confidenciales supone un riesgo.

La forma de pedir la exclusión, teniendo que enviar un correo por parte del administrador en lugar de que sea un proceso sencillo e integrado (y sin ejecutarlo por defecto) es otra forma de dark pattern de los que conocemos desde hace mucho. Una forma de desalentar a que las empresas pidan su exclusión.

La argumentación de Slack. En un comunicado con el que buscaban tranquilizar dijeron que usan estás técnicas para "cosas como las recomendaciones de canales, de emojis o los resultados de búsqueda". Es preocupante que estén usando conversaciones privadas y archivos confidenciales por defecto para algo tan trivial como la sugerencia de emojis en las reacciones.

Aseguran que son datos "anonimizados y agregados" y que los clientes pueden pedir la exclusión, pero el riesgo de fugas de información al trabajar con datos privados está ahí.

Dudas que persisten. Con un uso tan orientado a detalles nimios, como la recomendación de emojis o la ordenación en búsquedas, mucha gente se está preguntando por qué Slack necesita acceder a conversaciones privadas para algo así.

La promesa de que los datos no salen de su infraestructura no elimina el riesgo de una filtración o un mal uso. Y este caso es un ejemplo del dilema de privacidad que plantea el auge de la IA, también con la tentación que tienen las empresas de alimentar sus modelos con datos sensibles de los usuarios y técnicas opacas.

En Xataka | Hay un superpoder que dispara tu productividad de forma casi inmediata: decir "ahora no"

Imagen destacada | Stephen Phillips (Hostreviews) en Unsplash

Inicio