Decía el Nobel de Medicina Santiago Ramón y Cajal que las neuronas son «las misteriosas mariposas del alma, cuyo batir de alas quién sabe si esclarecerá algún día el secreto de la vida mental». Tal vez la realidad sea más prosaica pero la esencia es la misma: en ese batir, ese latigazo eléctrico, está la respuesta a la mayoría de nuestras preguntas.
Aunque la teoría del mapa neuronal fue cosa del anatomista alemán Waldeyer, y el esquema final completado por Warren McCulloch y Walter Pitts, fue nuestro Nobel patrio quien entendió mejor que nadie qué esconde el cerebro: ¿duendes, el alma, los recuerdos guardados en bolsitas, como declaman algunas mitologías? Algo mucho mejor que eso: un espléndido motor de ideas, sensaciones y emociones resultado de cien mil millones de neuronas y 7.000 conexiones sinápticas funcionando a todo gas.
Un cerebro y un PC no tienen mucho que ver
Con un consumo estimado de 20 vatios (un verdadero A++), se calcula que la capacidad de almacenamiento de un cerebro humano entre 9 y 10 Petabytes —súmale tres ceros y tendrás la cifra en Terabytes— y una capacidad de procesamiento de al menos un exaFLOPS —10^18FLOPS, operaciones de punto flotante por segundo—. Algo así como una CPU funcionando a 1.000 GHz con un disipador de calor extremadamente eficiente. Ahora viene la parte realista: todos estos datos son estimaciones oblicuas.
La realidad es que el cerebro humano y un ordenador se parecen lo mismo que un huevo y una castaña
La realidad es que el cerebro humano y un ordenador se parecen lo mismo que un huevo y una castaña. Mismo fundamento, distinta ejecución. Un ejemplo: esos 9.000 Terabytes no tienen nada que ver con la memoria no volátil de un disco duro rígido. Nuestra memoria no es volátil sino adaptativa.
La arquitectura de los primeros PC se denomina 'arquitectura de von Neumann', por el culpable del concepto, John von Neumann, un tipo que con 13 años ya era capaz de dar clases de matemáticas puras a nivel universitario y que propuso, entre otras medidas capitales, el uso del bit como medida estándar y la comprobación por pares (bits de paridad) para evitar los errores de cálculo.
Hemos cambiado un poco con los System on Chip y la forma en la que se comunican y administran los procesadores ARM, pero en conclusión podemos decir que, a nivel usuario, todo sigue igual.
Diferencias entre Arquitectura Harvard y Arquitectura de von Neumann. Fuentes: en inglés. En español.
La culpa es de la memoria
De aquí debemos establecer la primera ramificación: la arquitectura Harvard, aquella que utiliza un sistema de almacenamiento separado físicamente para las instrucciones y para los datos, y la citada arquitectura de von Neumann, familia de arquitecturas que utiliza el mismo dispositivo de almacenamiento tanto para instrucciones como para datos.
El cerebro humano está en permanente flujo, con constantes recombinaciones y lectoescrituras de datos
La segunda es la más semejante a nuestro cerebro, aunque ambas comparten un esquema parejo: a la memoria se accede a través del bus.
Tenemos un programa que da instrucciones, una memoria que contiene datos y un procesador que recupera instrucciones y actúa en consecuencia sobre los datos. Y si Alan Turing inventó una computadora para, esencialmente, resolver enigmas, von Neumann presentó una donde cada programa podría resolver un tipo de enigma distinto, sólo había que cambiar el soft. Es decir: la memoria se adapta a las órdenes.
El cerebro humano es disímil a esto: no pasa por un descarte de operaciones a una concreción de instrucciones lógicas, no se ponen por un lado las instrucciones en color rojo y los datos en azul, no hay diferentes lenguajes —C++, Java, Perl— ni compilación de órdenes, sino un único lenguaje abstracto, con un flujo constante de datos, con recombinaciones y lectoescrituras sobre el código en tiempo real. A poco que lo penséis, sí, es flipante.
Las diferentes conexiones sinápticas entre neuronas no poseen una función concreta. Nuestro cerebro es tan dinámico que, por un lado pueden entrar los datos de «esa mesa es de color rojo» —aunque esta sea una reducción boba, pues en la construcción de esa oración hay varios niveles “sintácticos”— y salir los de «me pica el pie izquierdo, así que me lo rasco». Todas las áreas del cerebro están perfectamente comunicadas. No hay Sección 1, Área de Recursos Humanos.
Nuestro cerebro es dinámico: las diferentes conexiones sinápticas entre neuronas no poseen una función concreta
Todo ese kilogramo de células se comporta como el gran hangar de un aeródromo: de las mismas puertas salen distintos aviones. Cada bit de información es procesado por la misma red neuronal local reactiva.
Para este particular hay que atender al conexionismo, concepto acuñado por el psicólogo canadiense Donald Hebb en 1942. El conexionismo habla de un conjunto de enfoques, desde la IA hasta la neurociencia, donde se exponen modelos de fenómenos mentales, de esas redes complejas que emergen de la interconexión de muchas unidades simples. Algo que llevamos intentando adoptar desde hace dos décadas en la computación, con las RNA (Redes Neuronales Digitales) y el Deep Learning.
En resumen: para emular el comportamiento de una neurona, con esa velocidad de transmisión (impulsos nerviosos) entre dentritas, necesitamos un software específico, un lenguaje específico y un procesador a la altura. Un paradigma que ya hemos alcanzado.
Redes neuronales artificiales: aprendiendo por las bravas
El cerebro humano, gracias a su plasticidad, es altamente adaptativo. Puede atrofiar zonas y muscular otras a tenor de lo que nuestro entorno, hábitos o tipo de vida laboral le exija. Sobre las neuronas artificiales se aplica un tipo de entrenamiento, digamos, consensuado: se dan determinadas órdenes de entrada a la red y se contempla qué respuesta se produce.
Si la traducción que reciben los ingenieros informáticos no se adecua a lo esperado, se ajustan los valores de cada neurona para ver qué datos vuelca una nueva interacción. Y así hasta que “todo encaja”. Una forma de aprendizaje más directa, ya que sobre un cerebro humano nunca se extirpa, se descarta, más allá de los que el propio sujeto tienda a anular por condicionamientos sociales, culturales, etcétera.
Tan distintos y tan iguales
Con esta información dispuesta debemos valorar una serie de puntos comunes donde sí hay semejanzas: los datos que recibe el cerebro también están codificados. Y nuestros órganos sensoriales, a través de los distintos receptores —incluso los que traducen nuestras sensaciones físicas, no sólo las percepciones— usan sus propios algoritmos.
El cerebro descodifica esta información, la retiene, la traduce, compila, depura y descarta: el sueño no es sino una desfragmentación, un proceso de destrucción de datos no válidos y una consolidación de aquellos archivos que sí podemos necesitar, según los parámetros inscritos en nuestro cerebro, distintos para cada persona. Y también se produce una limpieza analógica: el sistema glinfático se encarga de hacer el mantenimiento de los restos de células inútiles.
Por lo general, un ordenador usa memoria RAM (memoria de acceso aleatorio), diseñada para proporcionar acceso rápido a toda la nube de datos. La RAM se organiza en torno a las matrices de los componentes: dependiendo del ancho de banda, así accede más rápido o más lento. Esta memoria desaparece cuando se desconecta la corriente eléctrica (es volátil).
Esto se puede emparentar directamente con una función capital del hipocampo: la memoria a corto plazo. Accesos rápidos para acciones inmediatas. Aquí no se almacena la memoria, sino que se accede a las capas superficiales de la misma. Por otro lado poseemos la memoria a largo plazo, organizada en el córtex cerebral y que está menos expuesta a nivel consciente. Algo así como el HD que conectamos vía USB.
Pero nos hemos dejado un punto determinante la caché de la CPU (unidad central de proceso). La memoria se transfiere usualmente de la RAM a la caché, por diferentes vías. Hay varios niveles de caché (L1, L2, etc). La clave está en la velocidad, en los tiempos de acceso. Una neurona normal opera a unos 10-40 Hz de velocidad. Es nuestro reloj interno, de ahí que la tasa de refresco de un ordenador no se perciba a una velocidad superior: necesitas un ojo muy educado para distinguir de 30 a 60 y mucho más para apreciar un salto de de 60 a 120 Hz.
Nuestro cerebro sólo tiene papelera de reciclaje
Más allá de los escarceos de la ciencia ficción, cuando un dato es borrado del cerebro —algo que no podemos determinar con exactitud—, éste queda “anulado”. No hay borrado físico, no tenemos ningún tipo de destructor o incinerador definitivo. Y tampoco disponemos de un software de reconstrucción que lo devuelva a su estado primitivo. Nuestra mente va de menos a más, pero nuestra cantidad de neuronas de más a menos: la sabiduría tiene un tanto de acto de fe.
Los sistemas de tratamiento de la memoria digital son, obviamente, una traducción lógica de estos procesos inescrutables.
Pero, mientras que conocemos a la perfección la construcción y comunicación de todos los elementos dentro de un chipset, del cerebro aún no tenemos el mapa completo. Los últimos datos sugieren 26 tamaños diferentes de sinapsis, alrededor de 4,7 bits de información si lo traducimos a términos informáticos. Las sinapsis son más complicadas que las puertas lógicas eléctricas, nos tememos.
Nuestro cerebro no pone en pausa unas zonas para hacer descansar otras
Además, nuestro cerebro no pone en pausa unas zonas para hacer descansar otras —sólo a nivel no-consciente—: usa toda la base de datos de su metadata. Con apenas un par de tags, de palabras clave, desbloqueamos y recuperamos un recuerdo completo. Una suerte de Google instalado de fábrica definida como «memoria de contenido direccionable».
Pienso, luego existo
El paradigma que no hemos logrado alcanzar es ese sentido de la existencia tan persistente. Sabemos que tenemos presencia, que estamos en un lugar concreto en una forma específica. Esa autoconsciencia no la posee ninguna forma de hardware de manera autónoma. Dicho de otra forma: los cerebros tienen ojos.
Hasta donde sabemos, un cerebro humano puede aplicar sobreescrituras y borrados sobre el mismo mapa de bits una y otra vez y otra hasta el último día de nuestras vidas. Pero nunca se borra nada. ¿Por qué recordamos rupturas, pérdidas, intimidaciones, fracasos y todo eso que nuestra cabeza, por pura higiene mental, debería poder erradicar? Porque eso es lo que nos hace humanos. Cada imperfección, cada virtud, cada logro y error.
La torre del pensamiento
Como una Babel bíblica, algunas torres de computación ya han alcanzado velocidades de lectura y transmisión de datos prodigiosas. Zen AiO Pro, recientemente elegido mejor ordenador de sobremesa en los Premios Xataka, posee unas cifras muy poderosas para tratarse de un equipo all-in-one:
Intel Core i5 quad-core de sexta generación, con hasta 16 GB de memoria DDR4, tarjeta gráfica independiente, pensada para videojuegos y edición de vídeo, gráfica integrada y un disco duro configurable, de hasta 1TB.
Gran velocidad de procesamiento, cero imput lag, una ventana al mundo en FullHD (1920 × 1080), con panel IPS de 178 grados, el todo en uno ASUS Zen AiO Pro es uno de los sistemas compactos más completos que se pueden encontrar para enfrentar la vida tecnológica.
Ver 6 comentarios