Buscar
  • mayring20

“EDGE COMPUTING” LA COMPUTACIÓN DEL FUTURO


Edge Computing

Hasta la fecha los millones de dispositivos IoT que nos rodean tienen algo por mejorar, recolectan información, pero no pueden hacer nada con ella por sí solos. La envían a la nube, donde grandes centros de datos la procesan para obtener ciertas conclusiones o activar ciertos eventos.


Es la llegada de la Edge Computing que quiere cambiar ese funcionamiento "pasivo" de todos esos dispositivos, un tipo de filosofía que aporte mucha más autonomía a todos esos dispositivos, haciendo que sean algo más "listos".

Análisis y resultados de manera local y al momento y no en la nube

Hasta ahora en la mayoría de los casos las grandes plataformas de Cloud Computing se encargaban de analizar los datos recolectados por los sensores y dispositivos IoT.


Se puede intuir que la eficiencia en estos casos no es óptima, cuando se puede llevar a que los propios nodos de la red pueden analizar esos datos para evitar ese paso por la nube.


La llamada Edge Computing "permite que los datos producidos por los dispositivos de la internet de las cosas se procesen más cerca de donde se crearon en lugar de enviarlos a través de largos recorridos para que lleguen a centros de datos y nubes de computación".

Muchos datos, y quizás demasiados dispositivos IoT enviando información para ser procesada

Firmas como McKinsey & Co. estiman que la llamada Industrial Internet of Things (IIoT) producirá ingresos de 7,5 billones (con b de billón español) de dólares en 2025.

Uno de los problemas a los que se enfrenta esa predicción es cómo gestionar la ingente cantidad de datos que contienen todos esos dispositivos. ¿Cuántos existirán para entonces? Aquí se hizo famosa la cifra de 50.000 millones de dispositivos IoT en 2020 que Ericsson y Cisco (PDF) estimaron en 2010 y 2011 respectivamente.

Las cifras son de momento difíciles de medir. Lo cierto es que muchos de esos dispositivos conectados no solo recolectaran información sino que también la procesaran. Y si no lo tienen ellos, lo tendrán nodos en esas redes. Es allí donde la filosofía Edge Computing toma forma, y donde entre otras cosas se producirá la mejora en eficiencia: no tener que transmitir todos esos datos a la nube ya supondrá un ahorro enorme.


Fog computing


El otro término que se está relacionando con Edge Computing que está siendo usado cada vez más en este ámbito, y es el de Fog Computing. Un estudio de Cisco revela que esta plataforma permite "extender la nube para que esté más cerca de las cosas que producen y se accionan mediante datos de dispositivos IoT". Los responsables del estudio añadían que "cualquier dispositivo con conectividad de red, capacidad de computación y almacenamiento puede ser un nodo de esa "niebla".


Esta filosofía podría decirse que permite que los grandes centros de datos de la nube "deleguen" parte de sus responsabilidades a dispositivos Edge Computing, y lo hagan a través de esa Fog Computing que define requisitos o necesidades en ese extremo de todo este ecosistema que como decimos tiene aplicaciones industriales claras.


La Edge Computing se refiere a cómo los procesos computacionales se realizan en los "dispositivos edge", los dispositivos IoT con capacidad de análisis y procesos como routers o gateways de red, por ejemplo.

A diferencia de ese concepto, la Fog Computing se refiere a las conexiones de red entre los dispositivos edge y la nube. Hace tiempo que el OpenFog Consortium formado por Cisco, Intel, Microsoft, Dell EMD y algunas instituciones académicas trabaja en especificaciones para ese tipo de implantaciones en las que los sistemas Edge Computing, los Fog Computing y los Cloud Computing interactúan.



Beneficios presentes y futuros


Hay además factores que harán que este tipo de paradigma lo tenga aún más fácil en el futuro: el coste cada vez más reducido de los dispositivos y los sensores se une a la cada vez mayor potencia que tienen incluso dispositivos modestos.


También hay necesidades industriales que contribuyen a apostar por el Edge Computing: en ciertos entornos la única forma de optimizar aún más los procesos es la de tratar de evitar la comunicación con la nube en la medida de lo posible. Eso permite reducir latencias, consumir menos anchos de banda —no es necesario enviar todos los datos a la nube en todo momento— y acceder de forma inmediata a análisis y evaluación del estado de todos esos sensores y dispositivos.


Hay otra ventaja interesante: la seguridad. Cuantos menos datos hay en un entorno cloud, menos vulnerable es ese entorno si se ve comprometido. Si la seguridad en esos "micro centros de datos" Edge Computing se cuida de la forma adecuada, este apartado podría ganar muchos adeptos.



Eso no significa que la dependencia de la nube y de entornos Cloud Computing desaparezca: ambas tendencias deben aportar, y por ejemplo Edge Computing es más adecuado cuando sobre todo se necesita velocidad y baja latencia en esas transferencias de datos, mientras que la nube seguirá siendo protagonista para analizar y tratar grandes cantidades de datos que requieren una potencia de cálculo notable.


Los coches autónomos, el ejemplo perfecto


Si hay un campo en el que este tipo de filosofía tenga sentido, ese es el del coche autónomo. Estos "centros de datos sobre ruedas" no paran de recolectar información sobre sus sistemas y su entorno, y toda esa información debe ser procesada en tiempo real para que podamos disfrutar de una conducción autónoma óptima y segura.

Intel estima que un coche autónomo podría acabar generando 4 TB de datos al día: solo las cámaras del coche se encargarán de transferir al sistema entre 20 y 40 Mb por segundo, a los que se sumarían entre otros 10 y 100 Kbits por segundo del radar. Esos son solo parte de los datos que tendrá que gestionar el coche para poder funcionar correctamente.


El coche autónomo no puede estar esperando a comunicarse con la nube y a esperar la respuesta: todo ese proceso y análisis de datos hay que hacerlo en tiempo real, y es ahí donde la Edge Computing entra en juego, confirmando el importante papel que el ordenador central del coche tiene para aglutinar, analizar y dar respuesta a las necesidades de la conducción autónoma en cada momento.


Conclusión


La idea final de esta tendencia cada vez más popular es en esencia bastante lógica: aprovechar los recursos en cada caso (en los centros de datos de la nube o en tu sistema repleto de sensores y componentes IoT) para optimizar esa capacidad de proceso y esa transferencia de datos. Ahora queda por ver si ese paradigma acaba imponiéndose.


22 vistas0 comentarios

Entradas Recientes

Ver todo