En 1965 Gordon Moore observó un curioso fenómeno: cada año se doblaba el número de transitores de un circuito integrado. En 1975 revisaría esa estimación ligeramente: el fenómeno no se producía cada año, sino cada 18 meses. Aquella predicción ha sido una invisible referencia del mundo tecnológico que se ha cumplido inexorablemente. Es la célebre Ley de Moore.
Otro Gordon, de apellido Bell, hizo otra observación en 1972 bastante menos conocida pero igualmente singular. Él predijo que aproximadamente cada década se producía un cambio generacional en el mundo de la tecnología, un avance que dejaba atrás a la anterior generación. Desde entonces la Ley de Bell también ha demostrado cumplirse con bastante precisión, y según ella estamos a las puertas de una nueva era de la computación.
Juguemos a adivinar (un poco) el futuro
Gordon Bell fue uno de los primeros empleados de Digital Equipment Corporation (DEC), y se encargó de diseñar varias de sus legendarias PDP. Más tarde acabaría siendo responsable de ingeniería y del desarrollo de VAX, una familia de estaciones de trabajo con su propio juego de instrucciones CISC que tuvieron éxito en el ámbito empresarial durante más de una década.
En 1972 Bell observó cómo el mercado había cambiado desde que él entró en DEC: de los mainframes que lo dominaban todo en los 60 se pasó al despertar de los miniordenadores que acercaban la informática a muchos más ámbitos, sobre todo en empresas y entornos académicos.
De hecho se dio cuenta de que el precio de esas máquinas no cambiaba: lo que lo realmente lo hacía eran sus especificaciones internas, que hacían que por el mismo precio se pudiera acceder a máquinas mucho más potentes año tras año.
En esencia lo que reveló la entonces bautizada como Ley de Bell (o Ley de Bell de las Clases de Computadoras) es que si la potencia de un ordenador se doblaba cada dos años, al cabo de una década esos ordenadores serían 32 veces más potentes.
Para Bell cuando la potencia crecía y se multiplicaba por 10 se producía un cambio de paradigma, y que lo hiciera multiplicándose por 32 marcaba un hito singular: uno en el que una tarea específica pasaba de ser apenas posible (muy difícil de realizar) a completamente trivial.
El resultado de ese avance es un nuevo tipo de plataforma informática que también llega con nuevas capacidades y conceptos asociados a ella.
La estimación es muy optimista, todo hay que decirlo. La potencia de nuestros ordenadores y móviles no se duplica año tras año, pero es cierto que si miramos diez años atrás, la potencia de lo que tenemos ahora deja en ridículo a lo que teníamos antes y ciertamente habilita capacidades que antes eran casi impensables.
Aunque las franjas de tiempo no siempre han respetado con exactitud ese periodo de 10 años, lo cierto es que la Ley de Bell tiene desde luego respuesta en la evolución del mercado tecnológico:
- 1960: mainframes
- 1970: minicomputadores
- 1980: ordenadores personales y estaciones de trabajo conectadas
- 1990: navegadores web e internet
- 2000: dispositivos de mano, PDAs, primeros (pre)smartphones, iPods
- 2000: servicios web
- 2005: redes de sensores inalámbricos que derivan en la internet de las cosas (IoT)
- 2006: computación en la nube (AWS)
- 2007: smartphones (iPhone)
- 2012: wearables (Pebble)
Podríamos considerar además que la llegada del iPhone (que en cierta forma "se adelantó" a esa ley de Bell) planteó esa era de la computación en la que hemos estado inmersos en los últimos años y que ha tenido un impacto espectacular.
La próxima era de la computación
Bell predijo que las redes de área doméstica y corporal se comenzarían a desarrollar en la década de 2010 que ya hemos dejado atrás, y no le faltaba razón: el Pebble detonó la fiebre por los relojes inteligentes que luego derivó en el desarrollo de pulseras cuantificadoras y del resto de werables que ahora triunfan en el mercado.
¿Cuál es la próxima era de la computación? Todo parece apuntar a lo que Rick Osterloh y Google han llamado 'ambient computing' y que es una especie de IoT supervitaminada: prácticamente todo se convierte en un ordenador, y prácticamente todo está conectado sin necesidad de intervención humana.
En esa categoría ya no hay un formato definido, y de hecho esa era de computación parece definirse por la falta de formato, que permite englobar potenciales disrupciones como las del coche autónomo y conectado o esas teóricas gafas de realidad aumentada que parecen ser un posible próxima evolución de los wearables. Puede que esta década de 2020 que acaba de comenzar nos esté llevando a ese futuro.
Imagen | Brian Kostiuk
Ver 18 comentarios