Los ciberdelincuentes están encantados con la IA: así la están utilizando según un estudio de Microsoft y OpenAI

  • Desde crear malware más efectivo hasta mejorar las campañas de ingeniería social

  • Utilizar indebidamente servicios como ChatGPT puede tener consecuencias

  • OpenAI ha cerrado varias cuentas que, según explican, violaron su política de uso

Hackers Chatgpt 12
10 comentarios Facebook Twitter Flipboard E-mail

Era cuestión de tiempo que los ciberdelincuentes comenzaran a utilizar herramientas de inteligencia artificial para hacer más efectivos sus ataques. No es ningún secreto que los actores malintencionados han tenido dificultades a la hora de ejecutar algunas de sus campañas. En ocasiones, el código utilizado era detectado por sistemas antivirus y los correos electrónicos que pretendían suplantar la identidad de compañías u organismos mostraban defectos evidentes para los usuarios.

Pues bien, según Microsoft y OpenAI esto está cambiando en diferentes niveles. Los ciberdelincuentes están aprovechando las bondades de los grandes modelos de lenguaje (LLM) como GPT-4 para mejorar sus técnicas. Así como cualquiera de nosotros puede recurrir a herramientas como ChatGPT para crear textos en diferentes idiomas e incluso programar con mayor facilidad, los piratas informáticos pueden utilizarlos para actividades ilegales, aunque con el riesgo de ser descubiertos.

Ciberdelincuentes descubiertos

Las mencionadas compañías anunciaron este miércoles que detectaron varios grupos de ciberdelincuentes vinculados a Rusia, Corea del Norte, Irán y China que habían estado utilizando sus servicios para un amplio abanico de tareas sospechosas. Se trata de hallazgos que llegan después de una profunda investigación destinada a descubrir “amenazas emergentes en la era de la inteligencia artificial”. Veamos algunos detalles de los grupos mencionados por Microsoft y OpenAI en su estudio.

Strontium. Ha sido catalogado como un “actor de inteligencia militar ruso” que impulsa ataques de interés táctico y estratégico para el gobierno al que responde. Se cree que está relacionado a actividades militares en Ucrania. El estudio señala que Strontium ha recurrido a los modelos de IA para tareas básicas como automatizar y optimizar operaciones técnicas, pero también para otras más avanzadas, como comprender protocolos de comunicación por satélite y tecnologías de radar.

Emerald Sleet. En este caso se habla de un grupo norcoreano que utilizó los LLM para identificar víctimas e incluso encontrar vulnerabilidades en diferentes sistemas para ejecutar ataques. Una de ellas ha sido la vulnerabilidad CVE-2022-30190 de una herramienta de soporte de la propia Microsoft. Asimismo, según el informe, este grupo ha utilizado los modelos de IA para mejorar la redacción y generación de contenidos que probablemente podrían ser utilizados en campañas de phishing.

Charcoal Typhoon. Aquí se habla de un actor malintencionado vinculado al gobierno chino con un amplio abanico de objetivos que incluyen sectores gubernamentales, tecnológicos, infraestructura de comunicaciones e infraestructura energética. Al igual que los actores ya mencionados, este grupo ha utilizado los modelos de IA para comprender mejor tecnologías y plataformas que podrían ser utilizadas para realizar ataques. También se dice que ha utilizado estas herramientas para mejorar el código de malware, así como para prácticas de ingeniería social.

Hackers Chatgpt 13

Crimson Sandstorm. Por último tenemos a un grupo que Microsoft y OpenAI consideran que está conectado al Cuerpo de la Guardia Revolucionaria Islámica (IRGC) y que ha estado activo desde al menos 2017. Sus ataques en el pasado se han dirigido a los sectores del transporte marítimo, la defensa y la atención médica. Una de las prácticas más destacadas de este grupo con modelos de IA ha sido utilizarlos para intentar evadir los sistemas de seguridad de sus potenciales víctimas.

Si bien en todos los casos se trata de actores malintencionados que aparentemente llevan impulsado actividades ilegales desde hace tiempo, Microsoft y OpenAI señalan que todavía no han conseguido detectar ningún “ataque significativo” específico utilizando LLM. En cualquier caso, ambas compañías han decidido publicar su investigación para exponer cualquier tipo de movimiento en su etapa inicial. Asimismo, han optado por bloquear las cuentas asociadas a los mencionados grupos.

Cabe señalar que tanto ChatGPT como DALL·E y otros productos de OpenAI están sujetos a una política de uso que prevé sanciones para aquellos usuarios que cometan infracciones. La propia compañía explica que recurre a diferentes métodos para evaluar actividades potencialmente sospechosas. “Violar nuestras políticas podría resultar en acciones contra su cuenta, hasta la suspensión o cancelación”, dice la compañía en la pagina de política de uso actualizada el pasado 10 de enero.

Imágenes: Jonathan Kemper | Markus Spiske

En Xataka: Hemos preguntado a tres expertos en ciberseguridad si tiene sentido pagar un antivirus hoy en día. Esto opinan

En Xataka: ChatGPT ahora tiene memoria y recordará cosas sobre nosotros en futuras conversaciones (si queremos)

Inicio