Los dos tipos de predicción del suicidio con Inteligencia Artificial y cómo se consiguen

Durante la última década, los suicidios se han convertido en la principal causa de muerte no natural en España. El año pasado se quitaron la vida diez personas cada día en nuestro país, según los datos del INE. En otros países, como los Estados Unidos, la tasa de suicidios también es un tema cada vez más presente en el debate público.

El problema al que se enfrentan los intentos de luchar contra esta lacra reside en el hecho de que los métodos tradicionales de predicción de suicidio (como los cuestionarios facilitados por los médicos) no son demasiado precisos.

De modo que tanto empresas tecnológicas como instituciones públicas están poniendo su esperanza en que la inteligencia artificial sea capaz de proporcionar herramientas con las que predecir intenciones suicidas.

Como resultado de los primeros esfuerzos en este sentido, han surgido dos tendencias paralelas sobre el mejor modo de enfocar esta tarea, que Mason Marks, investigador de Derecho de la Información de la Univ. de Nueva York, ha bautizado como:

  • "Predicción médica del suicidio": Técnica experimental usada por médicos y hospitales para realizar predicciones en base al análisis de los registros de pacientes. No muy utilizada todavía, más allá de un proyecto liderado por el Departamento de Asuntos de los Veteranos de los EE.UU. Dado el contexto en el que se realiza, existen numerosas limitaciones al uso de datos relacionadas con la privacidad.

  • "Predicción social del suicidio": Sin apenas regulación, y por ello ampliamente usada. Realiza predicciones en base a datos sobre el comportamiento de los usuarios extraídos de sus interacciones en redes sociales o de sus dispositivos inteligentes.

Facebook o Twitter, por ejemplo, han puesto en marcha iniciativas al respecto. El Departamento de Asuntos de los Veteranos también cubre este campo a través del análisis de las comunicaciones telefónicas (que no del contenido de las mismas).

Predicción social del suicidio

Mientras llevamos a cabo nuestra rutina diaria, vamos dejando un rastro digital que puede ser analizado. Facebook, por ejemplo, analiza las publicaciones de los usuarios (y de sus amigos) en busca de palabras o frases concretas que correlacionan con pensamientos suicidas.

Facebook publicó el pasado mes de septiembre un artículo en su blog corporativo explicando el funcionamiento de su plataforma de predicción, y en él relataban los obstáculos a los que tuvo que enfrentarse el sistema de machine learning que desarrollaron.

"Hacer que una computadora reconociera una expresión 'suicida' fue un ejercicio complejo en el análisis de los matices del lenguaje humano, [pues] numerosas frases que podrían indicar un intento de suicidio - “matar”, “muere”, “adiós” - se utilizan comúnmente en otros contextos. Un ser humano puede reconocer que “tengo tanta tarea que quiero suicidarme” no es un verdadero grito de angustia, pero ¿cómo enseñar a una computadora esa clase de comprensión contextual?

"Para entrenar el sistema de clasificación, fue necesario alimentarle con toneladas de ejemplos, tanto de lo que estaba tratando de identificar (ejemplos positivos), así como lo que no (ejemplos negativos), para que aprendiera a distinguir patrones [propios de cada situación].

Cuando un usuario es clasificado de "alto riesgo", su caso es remitido a la policía estadounidense (el GDPR impide que esto ocurra también en Europa) para que realice un "chequeo de bienestar" en casa del usuario. Algunos meses los avisos de Facebook han llegado a motivar más de 100 chequeos de este tipo al mes.

Crisis Text Line, un servicio de asesoramiento a menores gestionado por una ONG y que se integra en Facebook Messenger y Youtube, ha generado 20 avisos... diarios. Basan su sistema de predicción en el análisis de una enorme cantidad de mensajes intercambiados por los usuarios de estos servicios, de una manera muy parecida a la que usan Amazon o Netflix para realizar sus recomendaciones de contenidos. Parte de los datos recopilados por la ONG están disponibles para su visualización online.

Consecuencias negativas imprevistas

"A primera vista, la predicción social del suicidio parece ser una propuesta ganadora, pues permite a las plataformas online llevar a cabo un servicio público que beneficia a los usuarios y sus familias. Sin embargo, esta clase de predicciones vienen generadas por algoritmos protegidos como secretos comerciales".

Esta denuncia de Marks reviste gran importancia, pues esta situación no sólo afecta a la privacidad de los datos, sino a la posibilidad de evaluar la eficacia del sistema.

En algunos casos, incluso una predicción acertada puede causar más daño que beneficios, bien porque la denuncia de Facebook se realice en países donde el intento de suicidio es delito (como Singapur), bien porque desemboque en una hospitalización involuntaria, que (paradójicamente) aumenta la probabilidad de suicidio.

Eso por no mencionar que las predicciones sociales puedan terminar siendo usadas fraudulentamente como excusa para vulnerar la inviolabilidad del domicilio (ante sospecha fundada de que existe riesgo de suicidio, los agentes de la ley dejan de necesitar una orden del juez).

Sin embargo, es en la privacidad donde Marks elige poner el acento:

"Aunque Facebook afirma que sus predicciones de suicidio no se utilizan para la publicidad, otras compañías menos escrupulosas podrían compartir sus propias predicciones de suicidio con anunciantes, corredores de datos y compañías de seguros"

No es por desconfiar de cómo salvaguarda Facebook los datos de sus usuarios, pero Marks propone proteger a estos últimos legislando para que cualquier algoritmo destinado a predecir suicidios sea considerado "software de uso médico".

Ver todos los comentarios en https://www.xataka.com

VER 4 Comentarios

Portada de Xataka