Recursos Humanos tiene un nuevo dolor de cabeza: los perfiles falsos de LikedIn creados con inteligencia artificial

Recursos Humanos tiene un nuevo dolor de cabeza: los perfiles falsos de LikedIn creados con inteligencia artificial
8 comentarios Facebook Twitter Flipboard E-mail

De facilitarles la labor a plantear un reto tan inesperado como difícil de lidiar. Los responsables de Recursos Humanos de las compañías se enfrentan a un problema que sonaría a ciencia ficción hace cuestión de década y media: perfiles falsos de LinkedIn creados con mucho morro y algo de ayuda de la inteligencia artificial generativa, y recursos como ChatGPT. Currículos deshonestos siempre los hubo y personas dispuestas a echarse flores y presumir de cargos que no tienen ni nunca han ejercido también; a ellos se les añade ahora el reto de saber cuándo una foto es o no real en la red y los datos que la acompañan verídicos.

Éramos pocos y… se nos complica la cosa en LinkedIn.

Algo más que adornar el currículo. Ese es en esencia el problema con el que se están encontrando algunas empresas en LinkedIn: perfiles de ejecutivos inventados en los que se combinan textos extraídos de otras cuentas legítimas con —he aquí lo más surrealista del asunto— imágenes generadas por IA que ayudan a reforzar el engaño. Su circulación supone un quebradero de cabeza para las oficinas de RRHH que se apoyan en LinkedIn y quienes administran grupos.

Apuntando a grandes compañías. Una de las voces que ha advertido del problemas es la del reportero experto en seguridad y ciberdelincuencia Brian Krebs, quien hace solo unos días alertaba de un fenómeno curioso, por llamarlo de alguna forma: la creación de “una gran cantidad” de perfiles falsos en LinkedIn de supuestos ejecutivos que se arrogaban funciones de Chief Information Security (CISO) en grandes compañías. Tan grandes, de hecho, que se incluían en la lista Fortune 500.

El problema es mucho más grave de lo que pueda parecer. Krebs relata cómo al buscar en Google quién era el CISO de una gran multinacional energética el primer resultado que se encontró fue una cuenta de LinkedIn fraudulenta. El perfil de LinkedIn del auténtico figuraba en segundo lugar. Otra de las cuentas engañosas de CISO, en este caso de una mujer que aseguraba ejercer ese rol en otro gigante del sector, había logrado colarse en una lista de directivos de una web especializada.

El alcance del problema. A raíz de su investigación Kreb ha observado otras respuestas que apuntan que este tipo de perfiles no son una rareza ni algo exclusivo de los CISO. Eso sí, percibe un interés especial por funciones y sectores relacionados con noticias o fenómenos globales. A modo de ejemplo cita perfiles engañosos de expertos en gestionar tareas de recuperación tras huracanes.

Para manejar algunas cifras el investigador ha hablado con los responsables de un grupo de profesionales de sostenibilidad de LinkedIn con más de 300.000 miembros. “Recibimos más de 500 solicitudes de perfiles falsos para unirse semanalmente”, apunta uno de ellos, quien asegura que el problema se ha agravado desde inicios de año. En total calculan que han bloqueado más de 12.700 perfiles sospechosos falsos solo en lo que va de 2022. “Cuando un bot intenta infiltrarse lo hace en oleadas”, apostilla el responsable de otro grupo de la red social en KrebsonSecurity.

Un problema no del todo nuevo. El vicepresidente de otro negocio, una consultoria, relata cómo hace dos meses identificó miles de perfiles falsos que aseguraban desempeñar algún cargo en su propia organización. Tras quejarse varias veces asegura que LinkedIn le pidió que enviase una lista de todos sus empleados y borró los perfiles que no estaban incluidos. Los intentos de engaño en la popular red social pensada para profesionales, en cualquier caso, no son del todo nuevos.

En abril NPR informaba de una investigación de Renée DiResta y Josh Goldstein que destapó más de un millar de perfiles de LinkedIn que utilizaban rostros generados aparentemente con inteligencia artificial. Quienes los emplean se aprovechan de la mejora de este tipo de tecnología. Hace poco un equipo de investigadores concluía que si nos pidiesen que identificásemos un deepfake solo acertariamos en el 48,2% de las ocasiones. Vamos, si fuese un examen suspenderíamos.

La gran pregunta: ¿Para qué? Solo hay suposiciones. Una es que, al menos en ciertos casos, se vinculen a las conocidas como estafas “pig butchering”, con la que alguien se gana nuestra confianza antes de presionarnos para que depositemos criptoactivos en webs o billeteras digitales. Otra opción es que aprovechen la falsa identidad para hacerse pasar por reclutadores de empleo en LinkedIn y tener así un acceso más sencillo a información personal y financiera de sus víctimas.

Curiosamente, señala Kreb en su artículo, hay bots que parecen no estar monitorizados: ni responden a mensajes ni publican contenido. En una vuelta de tuerca aún más curiosa, en agosto Fortune llegó a publicar sobre la existencia de piratas informáticos que usan LinkedIn o Indeed y copian perfiles con el propósito de crear cuentas y acceder a criptoempresas de EEUU.

¿Puede solucionarse? He ahí otra de las grandes cuestiones. Sobre la mesa ya se han puesto algunas posibilidades que ayudarían a valorar la veracidad de un perfil, como añadir información en cada caso sobre la fecha de creación de la cuenta, algo similar a lo que hace Twitter, o facilitar más herramientas a las empresas para actuar cuando detectan que alguien miente sobre las funciones que ejercen en su organigrama. Lo cierto es que la propia LinkedIn ofrece ya canales para denunciar este tipo de circunstancias. El objetivo: evitar engaños... y jaquecas en las oficinas de RRHH.

Imagen de portada | Souvik Banerjee (Unsplash)

Comentarios cerrados
Inicio