OpenAI sabe que ChatGPT no es perfecto, así que pagará hasta 20.000 dólares a quienes encuentren fallos

Chat Gpt Portada Vu
3 comentarios Facebook Twitter Flipboard E-mail

Estamos inmersos en un mundo cada vez más más digitalizado en el que no siempre es fácil predecir cuál será la próxima tecnología que cambiará nuevas vidas (todo parece indicar que por estos tiempos será la prometedora inteligencia artificial). Pero sí tenemos algunas certezas, y una de ellas es que no existen los sistemas 100% seguros, y esto también aplica a los productos de OpenAI.

Al igual que los ladrones de la vieja escuela utilizan sus habilidades para abrir cerraduras utilizando ganzúas y así conseguir su preciado botín, los ciberdelincuentes hacen lo propio con sistemas informáticos. Entonces puede que te preguntes qué tienen en común estos individuos. La respuesta es sencilla: se aprovechan de vulnerabilidades físicas o digitales que no han sido abordadas a tiempo.

En respuesta a este escenario, muchas compañías deciden dar premios a cazarrecompensas de bugs informáticos para evitar problemas de seguridad con sus plataformas. Esto es precisamente lo que está haciendo la compañía fundada por Sam Altman. Además de revisar sus sistemas puertas adentro, da la posibilidad de que los expertos informáticos de todo el mundo puedan aportar.

El Bug Bounty de OpenAI

Los creadores GPT-4, entre otros modelos de IA, han anunciado el lanzamiento de su programa de recompensas por errores o vulnerabilidades (VRP) de ChatGPT. Este Bug Bounty tiene un esquema de retribución basado la importancia de las contribuciones. Los pagos van desde los 200 dólares por descubrimientos de baja gravedad hasta 20.000 dólares por “hallazgo excepcionales”.

Como decimos, este tipo de prácticas es cada vez más común entre las grandes tecnológicas, y a lo largo de la historia hemos visto como gigantes de la industria como Apple, Google, Meta o Microsoft han ofrecido recompensas de hasta 200.000 dólares o más por errores. Eso sí, hay ciertas condiciones que los interesados en participar deben cumplir a la hora de poner a prueba sus sistemas.

Chatgpt 12

OpenAI ha publicado una lista de problemas que están fuera de su programa de recompensas, entre los que se encuentran el uso de jailbreaks, forzar al modelo a los modelos a que arrojen resultados inapropiados o conseguir que escriba código malicioso. En cualquiera de estos casos, y de otros también, no hay recompensa. Sí hay recompensa en otros tipos de fallos o vulnerabilidades.

La compañía de inteligencia artificial está interesada en descubrir problemas de autenticación, situaciones de datos expuestos, fallos en la plataforma de pagos de ChatGPT Plus, método para eludir la protección de Cloudflare mediante el envío de tráfico a puntos finales que no estén protegidos, bloqueos de la aplicación, problemas con la API o con complementos creados por OpenAI (no por terceros).

Para este Bug Bounty, los dirigidos por Altman se ha asociado a Bugcrowd, un viejo conocido el mundo de las recompensas por fallos y vulnerabilidades en sistemas informáticos (aunque también hay otros como HackerOne y Synack). Los interesados pueden encontrar todos los detalles en el perfil de OpenAI dentro de la plataforma de Bugcrowd, que será la encargada de gestionar los envíos y recompensas.

Imágenes: Nahel Abdul Hadi / Captura de pantalla de ChatGPT

En Xataka: Si ByteDance quiere que TikTok siga operando en EEUU lo tiene fácil: tan sólo tiene que venderlo

En Xataka: Soy informático y trabajo reportando fallos de software a las grandes empresas tecnológicas

Comentarios cerrados
Inicio