Las infraestructuras de IT de las organizaciones ya comenzaron a complementarse con esquemas de computación distribuida. Los data centers centralizados –ubicados en las propias instalaciones de las, compañías, o en las de los proveedores de servicios Cloud– no pueden dar respuesta a las necesidades de baja latencia en la transmisión de datos y procesamiento local propias de las nuevas aplicaciones avanzadas.
Vehículos autónomos, herramientas de monitoreo de la salud, sistemas de control de equipos industriales, soluciones de ciudad inteligente, aplicaciones de banca móvil, etc., requieren respuestas en tiempo real y, por lo tanto, necesitan que el procesamiento se extienda hasta el perímetro de la red.
Si los datos para estas aplicaciones tuvieran que viajar hasta una infraestructura en la Nube, experimentarían una latencia que generaría problemas. Por ello en lugar de depender de entornos Cloud centralizados, las organizaciones están construyendo sitios informáticos de vanguardia mucho más cerca de donde los datos se producen y deben procesarse, para una acción rápida.
Este requerimiento de procesamiento en tiempo real, sumado a la necesidad de reducir costos a nivel de la transmisión de datos desde y hacia los centros de datos centralizados y liberar ancho de banda de las redes, hizo que surgiera el nuevo paradigma de Edge Computing. Esta tecnología complementa a la Nube y resulta cada vez más crítica para el negocio.
Este avance de la computación de borde no colisiona con las estrategias Cloud, sino que en los hechos las organizaciones pasaron a desplegar arquitecturas de data centers híbridas – conformadas por grandes centros de datos centralizados, por un lado, y micro data centers en el borde por el otro–. Estos últimos también deben ser consistentes a nivel de resiliencia y de confiabilidad y disponer de controles de administración, seguridad y redundancia. Administrar y mantener la tecnología edge, por otra parte, también representa un desafío.