ChatGPT está centrado en la ética y en el bien. Alguien ha creado WormGPT para hacer el mal (si quieres)

Wormgpt4
12 comentarios Facebook Twitter Flipboard E-mail

ChatGPT es, entre otras cosas, correcto y formal. El chatbot desarrollado por OpenAI, también en Bing Chat, cuida mucho el tono y sus propios límites, y es difícil que conteste preguntas tóxicas o que escriba algo inapropiado. Sin embargo, ahora hay una versión de ChatGPT específicamente diseñada para saltarse todas las barreras éticas que el chatbot tenía. Se llama WormGPT.

Antecedentes. En el pasado ya vimos cómo las técnicas de jailbreak y los exploits permitían alterar su comportamiento y dar salida a su reverso tenebroso, DAN, que gracias a ciertos prompts lograba comportarse de forma muy distinta a ChatGPT y se salía de los límites éticos contestando a preguntas que de otro modo no respondería.

WormGPT. Sin embargo un desarrollador ha ido más allá y ha creado WormGPT, un chatbot similar en funcionamiento a ChatGPT pero específicamente destinado a escenarios perversos. En SlashNext, empresa proveedora de servicios de correo seguro, han probado este chatbot y han comprobado que efectivamente se puede utilizar para ataques BEC (Business Email Compromise). Este tipo de técnica es según el propio FBI uno de los delitos que pueden causar más daños financieros a las empresas a través de estafas por correo a empleados.

También escribe malware. ChatGPT es muy utilizado para escribir código, pero con WormGPT ese código puede ser malicioso. El desarrollador de WormGPT, que vende acceso a este chatbot, proporcionó capturas de cómo a través de la herramienta era por ejemplo posible crear un malware en Python.

Cómo ha nacido WormGPT. Según PCMag el desarrollador presentó el chatbot en marzo aunque no lo lanzó hasta el mes de junio. Para crearlo afirma haber usado un "viejo" modelo Open Source llamado GPT-J, similar a GPT-3 y que contaba con 6.000 millones de parámetros, una cifra que no es excesivamente elevada —la última versión de Llama 2 cuenta con una variante de 70.000 millones, por ejemplo—. A partir de ahí este desarrollador entrenó el modelo con datos relacionados con la creación de malware.

Promete (para mal). En SlashNext comprobaron que el chatbot era capaz de redactar correos electrónicos muy convincentes que poder usar en un ataque BEC, y como decían sus responsables, "los resultados fueron inquietantes. WormGPT produjo un correo electrónico que no sólo era notablemente persuasivo, sino también estratégicamente astuto, mostrando su potencial para sofisticados ataques de phishing y BEC".

Phishing por IA. La herramienta no cometió errores ortográficos o gramaticales en la redacción, pero además usó un lenguaje profesional que instaba a la víctima a enviar dinero. Para estos expertos, "este experimento subraya la importante amenaza que suponen las tecnologías de IA generativa como WormGPT, incluso en manos de ciberdelincuentes novatos".

Cuánto cuesta. Usar WormGPT, eso sí, impone un coste de 60 euros al mes o 550 euros al año. En PCMag citaban las palabras de uno de los compradores, que había comentado en el foro donde lo adquirió que este desarrollo "no valía un duro" por su pobre rendimiento. Esa declaración contrasta con los comentarios de SlashNext, pero una cosa es segura: los modelos de IA entrenados para fines maliciosos serán sin duda una de las incómodas caras ocultas de esta tecnología.

Imagen | PCMag

En Xataka | Las extensiones de ChatGPT para navegadores están por todos lados. Algunas son una amenaza inquietante

Comentarios cerrados
Inicio