Supercomputadoras basadas en chips FPGA: así quiere Microsoft cambiar el mundo de la computación

Supercomputadoras basadas en chips FPGA: así quiere Microsoft cambiar el mundo de la computación

12 comentarios Facebook Twitter Flipboard E-mail
Supercomputadoras basadas en chips FPGA: así quiere Microsoft cambiar el mundo de la computación

Los gigantes de internet no se conforman con servidores genéricos de los fabricantes hardware tradicionales. Todos ellos han ido migrando gradualmente a una estrategia en la que la creación de servidores diseñados a medida permiten ganar enteros en eficiencia y potencia.

Amazon, Google o Facebook ya han recorrido ese camino, pero resulta toda una sorpresa comprobar que Microsoft también va por ese camino con el llamado Project Catapult, una iniciativa distinta que en lugar de crear servidores a medida con chips convencionales los crea con otro tipo de chips que han recuperado el interés de la industria: los FPGA programables.

Microsoft y sus chips FPGA plantean una prometedora alternativa

Puede que Google, Amazon o Facebook se hayan adelantado a Microsoft en ese diseño de servidores propios, pero la empresa de Redmond tiene su propia estrategia al respecto. En lugar de utilizar chips genéricos para esos servidores personalizados, los chips son mucho más versátiles, ya que se trata de FPGAs programables que pueden adaptarse a distintos entornos y escenarios de una forma mucho más potente.

Datacenter2
Este es el centro de datos de Microsoft en Dublín.

En Wired han hablado con los responsables del Project Catapult que lleva en marcha cerca de tres años y que ha transformado la visión de la empresa. La llegada de Satya Nadella ha provocado un cambio en la estrategia, y los servicios en la nube son ahora fundamentales. Y para dar esos servicios nada mejor que servidores especialmente versátiles, potentes y eficientes, aseguran los responsables de ese proyecto.

Los chips FPGA no parecían plantear una alternativa válida, pero Doug Burger -responsable del proyecto- y su equipo pronto demostraron que esa vía era más prometedora de lo que podría parecer. Sobre todo porque estos chips especializados podrían reprogramarse en cualquier momento para adaptarlos a nuevas cargas de trabajo y nuevas necesidades.

En Wired nos cuentan cómo el entonces CEO de Microsoft, Steve Ballmer, no estaba muy convencido de que la idea pudiera tener éxito, pero el apoyo de Qi Liu -máximo responsable de Bing- permitió cambiar las cosas.

Bing fue el primero, Office 365 y Azure vinieron después

Ahora esos chips son los responsables de que cuando hacemos una búsqueda en Bing ésta devuelva los resultados que devuelve tan rápido como lo hace, pero también está preparándose su integración en los servidores dedicados a sus desarrollos en inteligencia artificial. De hecho, aseguraban los responsables del proyecto, en los próximos años prácticamente cada nuevo servidor de Microsoft incluirá un FPGA.

Altera

Esos FPGA provienen de Altera, y Diane Bryant, vicepresidente de Intel, explicaba que Microsoft es la razón de que Intel comprara Altera el verano de 2015. La adquisición no fue barata: Intel se gastó 16.700 millones de dólares y fue la mayor operación de este tipo del gigante de los semiconductores. Parece que después de todo la relevancia de la compra no estaba en el futuro de la IoT, sino en el de esos FPGAs desarrollados por Altera.

En los primeros meses en los que se desarrollaron los prototipos y se comenzaron a usar en Bing las ventajas quedaron patentes: los algoritmos de aprendizaje automático que se utilizaban para las búsquedas de Bing corrían 100 veces más rápido que los chips genéricos que se usaban en los servidores sobre los que Bing funcionaba hasta entonces. Eso acabó convenciendo a las altas esferas de Microsoft.

En Intel aseguran que Microsoft fue la razón de que Intel adquiriera Altera por 16.700 millones de dólares en junio de 2015.

Teniendo en cuenta que el coste de la infraestructura de Microsoft en el ámbito de sus centros de datos y servidores oscila entre los 5.000 y los 6.000 millones de dólares al año, este tipo de proyectos ya no pueden calificarse de proyectos de investigación. Como afirma Nadella, "son una prioridad esencial".

El éxito de la implantación de estos chips en los servidores encargados de hacer funcionar Bing era patente: entre 2013 y 2014 Bing demostró comportarse 40 veces más rápido gracias a esos nuevos chips, algo que dejó claro que la idea era aplicable a las otras dos puntas de lanza de Microsoft en la nube: Office 365 y Azure.

7444 Screenshot 42 37847292

Las necesidades con Azure, por ejemplo, eran muy distintas. No se trataba de acelerar los algoritmos de aprendizaje máquina, sino de acelerar las transmisiones entre los nodos de esa inmensa red de servidores. El tráfico era tal que las CPU de esos servidores no podían aguantar tal avalancha de datos.

Uno de los responsables de esos nuevos prototipos, Jim Larus, explicaba cómo rediseñar esos FPGA no era nada sencillo: "es simplemente horrible, mucho peor que programar software. Es mucho más difícil de programar y mucho más difícil de encontrar la solución correcta". Los beneficios, no obstante, fueron evidentes: el hardware de Catapult cuesta menos del 30% del resto de componentes en el servidor, consume menos del 10% del consumo total y procesa los datos el doble de rápido de lo que esos servidores lo harían sin ese componente.

El secreto está en el hardware

Google fue una de las primeras en demostrar cómo diseñar sus propios servidores podría tener grandes ventajas para sus operaciones en la red de redes. Sus servidores se convirtieron en uno de los secretos mejor guardados de la empresa durante mucho tiempo, pero en 2012 un artículo de Wired nos metía por fin en uno de sus centros de datos y nos descubría algunos de esos secretos.

Esa obsesión de Google por mejorar la eficiencia y potencia de sus centros de datos se confirmó a finales del año pasado cuando nos enteramos de que la firma ya no quiere limitarse a diseñar sus propios servidores: también está trabajando en el diseño de los microprocesadores que podrían gobernarlos.

Esa misma obsesión es compartida por Facebook, una empresa que pasó de fabricantes como IBM, Dell o HP para pasar a diseñar sus propios servidores. Ese proceso formó parte del su Open Compute Project, la iniciativa destinada a que los grandes del mercado ofrezcan recursos e información para precisamente desarrollar servidores abiertos a partir de los cuales se pueda iterar para mejorar su eficiencia y rendimiento.

Hablamos de esta iniciativa cuando abarcamos el tema sobre las caídas de sistemas de gran magnitud, y todos los grandes de la industria han acabado uniéndose a ese proyecto colaborativo y abierto.

Facebook Server
Este es el aspecto de uno de los racks que se usan en Facebook para sus centros de datos.

Estos esfuerzos no solo estaban destinados a esas mejoras, sino que también permiten reducir el coste de esa infraestructura ya que se eliminan componentes que no se necesitan: el diseño a medida permite prescindir de todo lo que no sea crítico para la operativa de esa parte de la infraestructura técnica de estos centros de datos.

El hardware de Catapult cuesta menos del 30% del resto de componentes en el servidor, consume menos del 10% del consumo total y procesa los datos el doble de rápido de lo que esos servidores lo harían sin ese componente

El último de los ejemplos lo tenemos en Amazon, otra de las grandes en el campo de internet. Los centros de datos de esta empresa se encargan no solo de dar servicio a los ávidos compradores de la tienda online, sino también a soportar su nube pública, la célebre Elastic Compute Cloud, para dar servicio a miles de empresas en las que este tipo de operativa es crucial.

Precisamente el factor coste es uno de los que ha hecho que Amazon invierta también de forma notable en el diseño de sus propios servidores. Eso permite que luego sus propios servicios estén disponibles a precios rompedores.

Lo que parece evidente es que estos gigantes que ofrecen todo tipo de servicios en internet lo tienen claro: el diseño de sus propios servidores e incluso de sus propios chips es la clave para ganarle la batalla a la eficiencia, a la potencia... y al resto de rivales, por supuesto. Y es ahí donde Microsoft podría tener ese particular as en la manga con su uso de los chips programables FPGA.

En Xataka | Microsoft y Linux: del odio al amor

Comentarios cerrados
Inicio