Compartir
Publicidad
Edge Computing: qué es y por qué hay gente que piensa que es el futuro
Internet of Things

Edge Computing: qué es y por qué hay gente que piensa que es el futuro

Publicidad
Publicidad

Los millones de dispositivos de esa Internet de las Cosas que nos rodea tienen un problema: recolectan información, pero no hacen nada con ella. La envían a la nube, donde grandes centros de datos la procesan para obtener ciertas conclusiones o activar ciertos eventos.

Ese funcionamiento "pasivo" de todos esos dispositivos es lo que quiere cambiar la llamada Edge Computing, un tipo de filosofía aplicable especialmente en escenarios empresariales e industriales que aporta mucho más autonomía a todos esos dispositivos, haciendo que sean algo más "listos".

Análisis y resultados en local, no en la nube

Hasta ahora en la mayoría de los casos las grandes plataformas de Cloud Computing se encargaban de hacer ese "trabajo sucio" de analizar los datos recolectados por los sensores y dispositivos IoT.

Cloud1

La eficiencia de este paradigma no es óptima en muchos casos en los que los propios nodos de la red pueden analizar esos datos para evitar ese paso por la nube.

Como indican en NetworkWorld, la llamada Edge Computing "permite que los datos producidos por los dispositivos de la internet de las cosas se procesen más cerca de donde se crearon en lugar de enviarlos a través de largas recorridos para que lleguen a centros de datos y nubes de computación".

Eso tiene una ventaja fundamental, ya que "permite a las organizaciones analizar los datos importantes casi en tiempo real, algo que es una necesidad patente en muchas industrias tales como la fabricación, la salud, las telecomunicaciones o la industria financiera".

Esa definición es precisamente la que explica esa nueva tendencia que hace que esos dispositivos y sensores situados por todas partes se ocupen no solo de recolectar esos datos para enviarlos a la nube, sino de procesarlos directamente. Las aplicaciones industriales en este ámbito son diversas, y ese planteamiento puede hacer que efectivamente la mejora en muchos procesos sea sensible.

Demasiados datos, y quizás demasiados dispositivos IoT

Firmas como McKinsey & Co. estiman que la llamada Industrial Internet of Things (IIoT) producirá ingresos de 7,5 billones (con b de billón español) de dólares en 2025.

Cisco1

Uno de los problemas a los que se enfrenta esa predicción es cómo gestionar la ingente cantidad de datos que todos esos dispositivos. ¿Cuántos existirán para entonces? Aquí se hizo famosa la cifra de 50.000 millones de dispositivos IoT en 2020 que Ericsson y Cisco (PDF) estimaron en 2010 y 2011 respectivamente.

Ese número parece quizás demasiado optimista, pero fue incluso conservador teniendo en cuenta que IBM (PDF) predijo que habría 1 billón (un "trillion" americano) de dispositivos conectados en 2015. Ericsson ha rebajado las expectativas y ahora estiman que la cifra será de 30.000 millones en 2021.

Las cifras son de momento difíciles de medir, y como afirmaban en IEEE, quizás demasiado optimismo. "Es la naturaleza humana", explicaba un analista de Gartner, "si participas en esta industria, y estás lanzando nuevos productos, hay mucho entusiasmo al respecto y muchísimas expectativas".

Lo cierto es que muchos de esos dispositivos conectados tendrán capacidad no solo de recolección, sino de proceso de datos. Y si no lo tienen ellos, lo tendrán nodos en esas redes empresariales o industriales. Es allí donde la filosofía Edge Computing toma forma, y donde entre otras cosas se producirá la mejora en eficiencia: no tener que transmitir todos esos datos a la nube ya supondrá un ahorro importante.

Fog computing

Hay otro término muy relacionado con Edge Computing que está usándose cada vez más en este ámbito, y es el de la llamada Fog Computing. Como revelaba un estudio de Cisco (PDF), esta plataforma permite "extender la nube para que esté más cerca de las cosas que producen y se accionan mediante datos de dispositivos IoT". Los responsables del estudio añadían que "cualquier dispositivo con conectividad de red, capacidad de computación y almacenamiento puede ser un nodo de esa "niebla".

Fog

Esta filosofía podría decirse que permite que los grandes centros de datos de la nube "deleguen" parte de sus responsabilidades a dispositivos Edge Computing, y lo hagan a través de esa Fog Computing que define requisitos o necesidades en ese extremo de todo este ecosistema que como decimos tiene apliaciones industriales claras.

La Edge Computing se refiere de forma específica a cómo los procesos computacionales se realizan en los "dispositivos edge", los dispositivos IoT con capacidad de análisis y procesos como routers o gateways de red, por ejemplo.

A diferencia de ese concepto, la Fog Computing se refiere a las conexiones de red entre los dispositivos edge y la nube. Hace tiempo que el OpenFog Consortium formado por Cisco, Intel, Microsoft, Dell EMD y algunas instituciones académicas trabaja en espeficicaciones para ese tipo de implantaciones en las que los sistemas Edge Computing, los Fog Computing y los Cloud Computing interactúan.

Beneficios presentes y futuros

Hay además factores que harán que este tipo de paradigma lo tenga aún más fácil en el futuro: el coste cada vez más reducido de los dispositivos y los sensores se une a la cada vez mayor potencia que tienen incluso dispositivos modestos.

Edge

También hay necesidades industriales que contribuyen a apostar por el Edge Computing: en ciertos entornos la única forma de optimizar aún más los procesos es la de tratar de evitar la comunicación con la nube en la medida de lo posible. Eso permite reducir latencias, consumir menos anchos de banda —no es necesario enviar todos los datos a la nube en todo momento— y acceder de forma inmediata a análisis y evaluación del estado de todos esos sensores y dispositivos.

El Edge Computing Consortium se centra precisamente en tratar de impulsar esta disciplina para que se consigan ventajas en forma de reducción de costes en mantenimiento e implantación, garantías en materia de seguridad, o menores consumos energéticos.

Hay otra ventaja interesante: la seguridad. Cuantos menos datos hay en un entorno cloud, menos vulnerable es ese entorno si se ve comprometido. Si la seguridad en esos "micro centros de datos" Edge Computing se cuida de la forma adecuada, este apartado podría ganar muchos enteros.

Eso no significa que la dependencia de la nube y de entornos Cloud Computing desaparezca: ambas tendencias deben aportar, y por ejemplo Edge Computing es más adecuado cuando sobre todo se necesita velocidad y baja latencia en esas transferencias de datos, mientras que la nube seguirá siendo protagonista para analizar y tratar grandes cantidades de datos que requieren una potencia de cálculo notable.

Los coches autónomos, el ejemplo perfecto

Si hay un campo en el que este tipo de filosofía tenga sentido, ese es el del coche autónomo. Estos "centros de datos sobre ruedas" no paran de recolectar información sobre sus sistemas y su entorno, y toda esa información debe ser procesada en tiempo real para que podamos disfrutar de una conducción autónoma óptima y segura.

Intel

Intel estima que un coche autónomo podría acabar generando 4 TB de datos al día: solo las cámaras del coche se encargarán de transferir al sistema entre 20 y 40 Mbits por segundo, a los que se sumarían entre otros 10 y 100 Kbits por segundo del radar. Esos son solo parte de los datos que tendrá que gestionar el coche para poder funcionar correctamente.

El coche autónomo no puede estar esperando a comunicarse con la nube y a esperar la respuesta: todo ese proceso y análisis de datos hay que hacerlo en tiempo real, y es ahí donde la Edge Computing entra en juego, confirmando el importante papel que el ordenador central del coche tiene para aglutinar, analizar y dar respuesta a las necesidades de la conducción autónoma en cada momento.

Esas necesidades en tiempo real se suman a otras igualmente interesantes que como decíamos hacen que no se pueda descartar la relevancia de la nube: todo lo "aprendido" por un coche autónomo se puede transferir a la nube para que el resto de modelos se beneficien de la experiencia y de la reacción más adecuada ante distintos eventos.

La idea final de esta tendencia cada vez más popular es en esencia bastante lógica: aprovechar los recursos en cada caso (en los centros de datos de la nube o en tu sistema repleto de sensores y componentes IoT) para optimizar esa capacidad de proceso y esa transferencia de datos. Ahora queda por ver si ese paradigma acaba imponiéndose.

Temas
Publicidad
Publicidad
Publicidad
Inicio
Inicio

Ver más artículos