Publicidad

Esta inteligencia artificial es capaz de mostrarte en qué estás pensando: sólo necesita analizar tus ondas cerebrales

Esta inteligencia artificial es capaz de mostrarte en qué estás pensando: sólo necesita analizar tus ondas cerebrales
1 comentario

Publicidad

Publicidad

¿Tecnología para leer la mente? Podríamos pensar que la mera idea entra de lleno en el campo de la ciencia-ficción. Pero un equipo de científicos rusos, compuesto por investigadores tanto de la compañía Neurobotics como del Instituto de Física y Tecnología de Moscú (MIPT), han diseñado una tecnología capaz de reconstruir las imágenes que está visualizando una persona en dicho momento. Y de hacerlo, además, sin necesidad de agresivos implantes cerebrales.

De hecho, esta técnica tan sólo requiere del uso de los típicos electrodos, de tal manera que sean capaces de elaborar la electroencefalografía (EEG) del sujeto. A partir de esta información, los científicos han recurrido a redes neuronales para que éstas 'traduzcan' en tiempo real la EEG y puedan recrear la información visual que está captando el cerebro.

En palabras de Grigory Rashkov, investigador junior en MIPT y programador en Neurobotics:

"El electroencefalograma es una colección de señales cerebrales registradas desde el cuero cabelludo. Los investigadores creían hasta ahora que estudiar los procesos cerebrales a través de la EEG venía a ser como intentar averiguar la estructura interna de una máquina de vapor analizando el humo dejado por un tren de vapor: no esperábamos que contuviera información suficiente para reconstruir ni siquiera parcialmente una imagen observada por una persona. Sin embargo, resultó ser bastante factible".

Las tres fases del experimento

En una primera fase del experimento, los investigadores pidieron a los sujetos de estudio vieran fragmentos de vídeos de Youtube de cinco categorías diferentes, detectando que los patrones de las ondas cerebrales eran distintos para cada categoría.

Algoritmo

En la segunda fase, los investigadores desarrollaron dos redes neuronales: una especializada en la generación de imágenes aleatorias a partir del "ruido" de los vídeos (esto es, de la granulación que aparece en un fotograma cuando pierde nitidez), y otra responsable de generar un "ruido" similar a partir de los datos proporcionados por las electroencefalografís.

En la última fase, ambas redes fueron entrenadas para colaborar entre sí, permitiendo convertir el ruido derivado de las EEG en imágenes reales, similares a las que habían observado los voluntarios en la primera fase y que habían sido procesadas por la primera red neuronal. El resultado fue que, en el 90% de los casos, el sistema genera imágenes que pueden ser fácilmente categorizadas.

Una puerta a interfaces cerebro-ordenador más asequibles y menos invasivos

Vladimir Konyshev, director del Laboratorio de NeuroRobotics en el MIPT:

"[Este proyecto] se centra en crear una interfaz cerebro-ordenador que permita a los pacientes que hayan sufrido un accidente cerebrovascular controlar un exoesqueleto de brazo con fines de rehabilitación neurológica, o que pacientes paralizados sean capaces de conducir, por ejemplo, una silla de ruedas eléctrica. El objetivo final es aumentar la precisión del control neural para individuos sanos, también".

Konyshev analiza también qué impacto tiene este avance sobre proyectos como el de Neuralink, la interfaz cerebro-ordenador que está desarrollando Elon Musk:

"Las interfaces neuronales invasivas diseñadas por Elon Musk se enfrentan a los retos de la cirugía compleja y rápido deterioro debido a procesos naturales: se oxidan y fallan en pocos varios meses. Esperamos que con el tiempo se puedan diseñar interfaces neuronales más asequibles que no requieran de ser implantadas".

Vía | MIPT.ru

Temas

Publicidad

Publicidad

Publicidad

Inicio
Compartir