Contenidos contratados por la marca que se menciona

+info

¿Cuándo tendremos 100TB en el SSD de nuestro ordenador?

¿Cuándo tendremos 100TB en el SSD de nuestro ordenador?
4 comentarios Facebook Twitter Flipboard E-mail

Cualquier persona que siga la actualidad informática se habrá dado cuenta: la carrera por el SSD más grande parece no tener fin.

Es asombroso, en serio. No hace ni dos días cuando los ordenadores con 100 GB eran algo puntero y, de repente, estamos viendo 1TB como algo normal. Y claro: a mayor espacio, más queremos. Y más necesitamos.

Hace apenas un mes veíamos un SSD de 60 TB en formato de 3,5 pulgadas, aunque aún falta un lustro para ver algo así montado en un soporte comercial. Y al poco la sorpresa: 100 TB de memoria en un nuevo prototipo con interfaz PCIe.

4 bits por celda, celdas de 16 niveles, lo que propicia una mayor densidad

El truco estaba en las siglas QLC (Quad Level Cell). O, lo que es lo mismo, 4 bits por celda, celdas de 16 niveles, lo que propicia una mayor densidad, sin necesidad de lanzarse a las estructuras tridimensionales.

Pongámonos en perspectiva: decíamos que no llegaríamos a estas capacidades hasta el 2025.

Ya tenemos productos alpha en laboratorio que superan esta estimación.

Los fabricantes, desde luego, se han puesto las pilas. Porque, además, mediante la técnica del QLC, el fabricante optimiza el consumo —aunque la velocidad de lectura deja algo que desear, a 3GB por segundo de forma secuencial y 1GB por segundo de escritura como límite teórico—: ha logrado un consumo inferior a 10 vatios, cuando el actual estándar está por los 3 teras por vatio.

Rack Por Dentro
Rack visto por dentro

¿Qué ha propiciado esta carrera desbocada?

La necesidad.

La computación en la nube no almacena toda la información que recibe

Suena obvio, pero es la realidad. El sector empresarial del Big Data necesita mayor espacio. Las grandes granjas de discos duros de 500GB conectados en red ya no tiene sentido cuando la computación en la nube no almacena toda la información que recibe, sino que la procesa y “selecciona” antes siquiera de “consolidarla”.

Ya lo decía Intel: dos elementos son claves a la hora de procesar datos en el cacareado cloud computing —y, por extensión, fog computing y toda la computación que requiera núcleos de procesamiento auxiliares—: primero, reducir a toda costa la latencia y segundo, lograr mayores niveles de lectura/escritura en el menor tiempo y el mayor espacio posible.

De ahí que últimamente se hable tanto del in-memory computing: en el sector empresarial, la arquitectura común se basa en enviar datos a través de buses hacia la RAM, donde se almacena temporalmente para un acceso rápido y, de ahí, se manda al HD, donde se “consolida”. Cada etapa del proceso de escritura posee una ligera latencia. Incluso si partimos el mismo paquete de datos y lo enviamos por muchos buses, luego habría que recomponer la imagen final.

La tecnología In-Memory envía los datos directamente a la caché o a la RAM, directamente, ahorrando ciclos de lectura, de procesado, de coste a nivel energético y tiempo, que es lo que determina que tu empresa sea más o menos fuerte en cuanto a comunicaciones cliente/base de datos.

Samsung

¿Estamos de verdad “evolucionando”?

Volvamos a los discos duros. Aunque, como bien señalan en McKinsey, «el sector de las memorias es un tanto cíclico», sí, estamos evolucionando.

¿Y cuándo vamos a tener 100 TB en nuestro laptop? Esto es difícil de definir.

Los SSD retienen los datos sin la necesidad de una alimentación eléctrica constante

Una unidad de estado sólido utiliza “memoria flash”. Ya sabes, cuando desmontas un HD tradicional ves discos magnéticos, una aguja, las placas que mantienen los discos estancos, etcétera. Los SSD retienen los datos sin alimentación eléctrica, poseen memoria no volátil, pero no graban de manera “física”. Esto es gracias a su estructura.

Las memorias flash NAND almacenan los datos en celdas mediante transistores de puerta flotante. Por un lado está la puerta de control y al otro la flotante, aislada por una capa de óxido. Para no complicarnos: esto es como abrir una compuerta que se llena de agua y los datos se quedan en la parte superior gracias a una rejilla, como un barco, sólo que el agua son electrodos y el barco son bits.

Tlcnand

Cuantos más bits añadimos a esa celda, más nos costará determinar su estado

Cada vez que hacemos esto de abrir y cerrar degradamos las bisagras de la puerta. Aunque cada vez operan con menor voltaje y, por tanto, la estructura física sufre un menor desgaste, todo tiene una vida útil. Cuantos más bits añadimos a esa celda, más nos costará determinar su estado, más voltaje necesitaremos, y el rendimiento de la memoria será más lento. Hemos dado un salto de gigante desde los chips SLC, MLC hasta los TLC NAND.

Pero también estamos arriesgando: ¿por qué se deterioran tan pronto los terminales, o se dan casos de explosiones, algo que hace 20 años, directamente, no existía? Porque, en el caso de las memorias SSD, los fabricantes "raspan" espacio a la capa de óxido para meter más datos, y entonces la vida útil de esta memoria es menor. Está menos protegida. Y así con todo: los fabricantes afilan lo máximo posible, pero hasta que no aparece un nuevo protocolo tecnológico, se alcanza un techo que detiene el avance.

Nand

Una cuestión de rentabilidad

Hablemos con propiedad: si nuestros portátiles o sobremesas no montan un SSD de 10 TB es por una cuestión de sobreprecio. No es comercialmente rentable.

Es posible que nos encontremos con un SSD de 10 TB en apenas dos años

Pero no pensemos que va a ser así por mucho tiempo. Mediante la tecnología 3D NAND se han podido incrementar la capacidad a las células multinivel (MLC) y de nivel triple (TLC) sin aumentar el coste, gracias a, como decíamos, aumentar la densidad de almacenamiento: 32 GB adicionales a 256 GB; 48 GB adicionales a 384 GB, y así.

Basándonos en esta tecnología es posible que nos encontremos con un SSD de 10 TB en apenas dos años —quizá menos, pero cada cambio requiere un dilatado proceso de testeo y validación—.

Cosis Copia

¿Existe un límite teórico para los datos en nuestro ordenador? Teórico sí, claro. Con los estándares actuales ya hemos visto que subir hasta los 32 TB, los 48 TB o los cacareados 60 TB encarecen el precio de manera desorbitada —se habla de hasta 10.000 dólares por dispositivo—.

No es tanto una limitación “física” como práctica, en términos económicos para los propios fabricantes.

¿Quién lleva el testigo de la vanguardia?

Tendríamos que fijarnos en ASUS, quienes han dado un puñetazo en la mesa con sus nuevos productos —ZenBook 3, Transformer 3 Pro y ZenFone 3—. Particularmente el nuevo Asus Zenbook 3 UX390UA logra montar hasta 1 TB PCIe SSD de tercera generación en menos de 12 milímetros de grosor, y mantener el peso por debajo del kilogramo. Esto es un avance real a nivel usuario.

Bateria

Como explica la propia ASUS, montar componentes cada vez más poderoso en sistemas tan finos implica riesgos para la propia estructura del equipo.

Apostar por la máxima eficiencia requiere una gran apuesta en investigación

En este particular utilizan un polímero de cristal líquido de apenas 0,3 mm para reconducir el calor y un caloducto de aleación de cobre con un grosor de 0,1 milímetros que lo distribuye.

En resumen: apostar por la máxima eficiencia requiere una gran apuesta en investigación. Y eso requiere tiempo.

Quizá lo más interesante llega con los nuevos Transformer 3 y Transformer 3 Pro, ambos convertibles de tercera generación que apuestan en sus máximas configuraciones por 1TB SSD PCIe x4, un bus que rinde hasta tres veces más rápido que un simple SATA3, lo que se traduce en una transferencia de datos de 10 gigas por segundo mediante conexión USB-C y hasta 40 gbps desde el puerto Thunderbolt.

Comentarios cerrados
Inicio