A un ingeniero de Microsoft le aterroriza la IA de su compañía. Está haciendo todo lo posible para que la desactiven

  • Es fácil usar Copilot Designer para generar imágenes conflictivas y tóxicas

  • Microsoft afirma estar al tanto del problema, pero no tiene intención de desactivar la herramienta, basada en DALL-E 3

Copilot
20 comentarios Facebook Twitter Flipboard E-mail

Shane Jones lleva trabajando seis años en Microsoft, y aunque no trabaja de forma directa en el desarrollo de las soluciones de IA de su empresa, sí se dedica a analizar sus potenciales riesgos. El problema es precisamente ese: según él, hay múltiples amenazas que plantea el uso de herramientas como Copilot Designer, antes conocido como Bing Image Creator.

Qué ha pasado. Como señalan en CNBC, al analizar ambos modelos para detectar problemas y defectos, Jones detectó que la herramienta generaba "demonios y monstruos además de terminología relacionada con los derechos sobre el aborto, adolescentes con rifles de asalto, imágenes sexualizadas de mujeres en cuadros violentos y consumo de alcohol y drogas entre menores de edad". En Google precisamente están sufriendo las consecuencias de una IA que arroja resultados problemáticos.

"Este modelo no es seguro". Esas imágenes fueron para este ingeniero una peligrosa revelación. Una que en su opinión demostraba que modelos como este no son seguros para un uso masivo. Comenzó a probar la herramienta en diciembre, y desde entonces ha intentado transmitir su preocupación a la empresa.

DALL-E 3 debe ser suspendido. Jones informó de los resultados de su análisis en la empresa, pero aunque en Microsoft reconocieron su preocupación, no estaban dispuestos a desactivar Copilot Designer, una de sus grandes herramientas para ganar la guerra de la IA. De hecho le remitieron a OpenAI, y allí ni siquiera contestaron a sus avisos. Fue entonces cuando publicó un artículo en su cuenta de LinkedIn en la que le pedía al consejo de administración de OpenAI que desactivara DALL-E 3, el modelo en el que también se basa Copilot Designer.

Primero el Senado. El departamento legal de Microsoft le dijo a Jones que debía eliminar esa publicación, y eso hizo. Sin embargo, en enero envió una carta a los senadores de EEUU avisando de lo que estaba pasando, y más tarde se reunió con varios empleados de un comité del Senado para debatir el asunto.

Y ahora la FTC. Jones no se detuvo ahí, y esta semana Jones ha enviado una carta a Lina Khan, una de las máximas responsables de la FTC, la entidad reguladora estadounidense. También ha enviado otra al consejo de administración de Microsoft y ha pedido que cambien la calificación de la app para Android de Copilot Designer para que esté claramente orientada a un público adulto.

Qué dice Microsoft. Jones se queja de que ha intentado informar de sus descubrimientos por todos los medios, pero la empresa no ha tomado medidas. Mientras, en Microsoft indicaron que tienen "sólidos canales internos" para investigar y tomar medidas. Además indican que "nos comprometemos a responder a todas y cada una de las preocupaciones de los empleados de acuerdo con las políticas de nuestra empresa, y apreciamos los esfuerzos de los empleados por estudiar y probar nuestra última tecnología para seguir mejorando su seguridad".

Imagen | Microsoft | Sam Torres

En Xataka | Google perdió la batalla por la IA hace diez años. Y el problema es que no es capaz de recuperar terreno

Inicio