La 'ley de Moore' ni está muerta ni de parranda. En Intel creen que simplemente está ralentizándose

  • La ley de Moore fue enunciada por Gordon Moore, cofundador de Intel, en 1965

  • El director general de NVIDIA sostiene que esta predicción ya no describe bien el desarrollo de las GPU

Durante los últimos años los defensores de la ley de Moore, entre los que se encuentra Intel, han sostenido que a esta predicción le queda cuerda para rato. Sin embargo, este postulado también tiene detractores. Y uno de ellos es Jensen Huang. El director general de NVIDIA defiende desde hace ya varios años que el pronóstico enunciado por Gordon Moore en 1965 ya no describe correctamente el vertiginoso desarrollo que están experimentando las GPU, especialmente en el ámbito de la inteligencia artificial.

Gordon Moore ha renegado públicamente en varias ocasiones de que a la observación que hizo se le haya atribuido el estatus de ley. En realidad es una predicción fruto de la observación empírica, y no una ley amparada en un estudio científico minucioso. Aun así, durante muchas décadas su observación se ha erigido como la regla de oro utilizada por la industria de la microelectrónica para prever el ritmo con el que va a desarrollarse a medio y corto plazo.

Lo que Moore percibió hace algo más de cinco décadas y media fue que el número de transistores de los circuitos integrados se duplicaría cada año, y, a la par, su coste relativo se reduciría drásticamente. Diez años más tarde enmendó su observación al incrementar el plazo de tiempo necesario para que se lleve a cabo ese desarrollo de la tecnología de integración, colocándolo en 24 meses, y no en un año. Y desde entonces su pronóstico se ha cumplido con razonable precisión.

Pat Gelsinger está decidido a poner orden

Antes de seguir adelante merece la pena que repasemos brevemente qué dice la 'ley de Huang'. Como podemos intuir, hace referencia a Jensen Huang, el director general de NVIDIA, pero no ha sido bautizada por él. La responsable del nombre de este postulado es Tekla S. Perry, editora sénior en IEEE Spectrum, y lo formuló en el artículo que publicó el 2 de abril de 2018 con el propósito de describir el rapidísimo desarrollo que ya entonces estaban experimentando los procesadores gráficos.

El desarrollo de los procesos litográficos no explica por sí solo el vertiginoso avance de las GPU para IA

Durante la década que se extiende entre 2012 y 2022 el rendimiento de los chips de NVIDIA para aplicaciones de inteligencia artificial se ha multiplicado por 1.000. Nada menos que por 1.000. Es cierto; la ley de Moore no refleja bien este desarrollo tan veloz. No obstante, es importante que tengamos en cuenta que el impacto del desarrollo de los procesos litográficos no explica esta evolución tan vertiginosa. Bill Dally, uno de los máximos responsables científicos de NVIDIA, sostiene que en gran medida este desarrollo es posible gracias al impacto que tiene la innovación constante en el ámbito de la microarquitectura de las GPU.

A pesar de su aparente oposición, las leyes de Moore y Huang pueden convivir en armonía. De hecho, la primera de ellas encaja bien en el dominio de las CPU, y la segunda en el de las GPU. En cualquier caso, Pat Gelsinger, el director general de Intel, acaba de introducir una corrección importante en la ley de Moore.

Y es que según él se está ralentizando, de modo que la cadencia de 24 meses que pronosticó Moore para identificar el tiempo necesario para duplicar el número de transistores de los chips está ahora cerca de los 36 meses. Es evidente que Gelsinger está describiendo el comportamiento que está observando actualmente en la industria de los semiconductores, y, a priori, parece una afirmación razonable. Veremos si finalmente el tiempo le da la razón.

Imagen de portada: Intel

Más información: Tom's Hardware

En Xataka: Intel carga contra NVIDIA: Pat Gelsinger asegura que toda la industria quiere erradicar CUDA

Ver todos los comentarios en https://www.xataka.com

VER 1 Comentario

Portada de Xataka