Compartir
Publicidad

Los defensores de los 'neuroderechos' advierten del peligro de proyectos, como Neuralink, que busquen conectar cerebros a máquinas

Los defensores de los 'neuroderechos' advierten del peligro de proyectos, como Neuralink, que busquen conectar cerebros a máquinas
12 Comentarios
Publicidad
Publicidad

Hace dos meses, Elon Musk dio detalles sobre sus planes para una de sus compañías, Neuralink, con la que busca lograr conectar áreas del cerebro humano, a través de 'cordones neuronales', con el exterior. Concretamente, con máquinas dotadas de inteligencia artificial, que podrían leer nuestros picos neuronales de forma mínimamente invasiva.

Pero Musk no es el único que apuesta convencido por el desarrollo de interfaces cerebro-máquina (BCI): también Facebook tiene sobre la mesa un proyecto llamado 'Building 8', con el que confía en ser capaz de leer los pensamientos de sus usuarios.

De hecho, afirman haber desarrollado un algoritmo capaz de decodificar en tiempo real palabras a partir de nuestra actividad cerebral. Algo poco tranquilizador dado el historial de la compañía en asuntos de privacidad durante estos últimos años.

Y no son las únicas compañías con planes similares: Kernel, Emotiv, y Neurosky también están trabajando en desarrollar sus propias BCIs y en poder lanzarlas algún día al mercado. En su caso alegan la búsqueda de fines éticos, como ayudar a las personas con parálisis a controlar sus dispositivos (desde sus ordenadores personales a brazos robóticos).

Orwell no vio venir a Musk y Zuckerberg

En la obra de George Orwell '1984' se decía que, en el mundo distópico en que se ambienta la novela, "nada era del individuo, a excepción de unos cuantos centímetros cúbicos dentro de su cráneo". Pero incluso esa última frontera de la privacidad podría caer gracias a todos estos proyectos desarrollados últimamente en Silicon Valley.

“Los datos del cerebro son el último refugio de nuestra privacidad. Cuando eso se acaba, se acaba todo. Y una vez que esos datos empiecen a recopilarse a un gran escala, será muy difícil de revertir el proceso". (Marcelo Ienca)

Esto está motivando a algunos científicos e intelectuales a denunciar que nuestras actuales leyes no están ni por asomo preparadas para las amenazas a las que estas tecnologías empiezan a abrir ahora las puertas. Estarían en juego, afirman, aspectos tan básicos de nuestras vidas que ni podemos pensar en ellos en términos de 'derechos' legales.

Por ello, proponen llevar los derechos humanos también dentro de nuestros cráneos creando lo que ellos llaman 'neuroderechos'. Dos académicos residentes en Suiza, el argentino Roberto Adorno (especialista en bioética) y el italiano Marcello Ienca (especialista en neuroética), llevan ya unos años defendiendo la necesidad de proteger los pensamientos y las memorias almacenados en los cerebros de los ciudadanos de toda clase de robo o 'hackeo'.

Y han resumido esa necesidad de protección en cuatro nuevos derechos humanos:

Derecho a la libertad cognitiva

Ienca y Adorno defienden que los humanos tenemos el derecho a usar estas nuevas neurotecnologías, pero también a recibir protección contra el uso no consentido de éstas sobre nosotros.

Privacidad mental

Si las webs y aplicaciones recopilan hoy en día tal cantidad de datos sobre sus usuarios que ha sido necesario someterlas a leyes de protección de los datos personales para evitar repercusiones negativas sobre estos, será necesario situar las nuevas BCIs bajo un status legal aún más estricto, por su capacidad para acceder a muchos más datos de naturaleza mucho más privada.

Integridad mental

Definen así a la protección de la mente contra posibles daños. Argumentan que, si los ordenadores pueden ser hackeados, los nuevos dispositivos que Musk y Zuckerberg tratan de implantar en los cerebros de los usuarios pueden sufrir igual suerte, por lo que debemos estar protegidos antes accesos desautorizados o manipulación de señales neuronales que puedan derivar en daños psicológicos o físicos.

Continuidad psicológica

Por último, Ienca y Adorno hablan del derecho a preservar la identidad personal y la coherencia del comportamiento individual frente a alteraciones realizadas sin permiso por terceras partes (por ejemplo, la modificación, adición o supresión de memorias "esenciales para que un humano se reconozca a sí mismo").

Vía | Vox.com

Imagen | Pixabay

Temas
Publicidad
Publicidad
Publicidad
Inicio