Que es Cloud Computing
Fog computing: procesar los datos donde se originan

Desde hace un tiempo, el cloud computing —trasladar la potencia de cálculo cerca de los usuarios en lugar de aislarla a cientos o miles de kilómetros— se ha materializado mediante computación distribuida. Los ejemplos de big data irrumpen en industria, el rural o el mundo del videojuego, gracias a la ‘fog computing‘ o computación en […]
Desde hace un tiempo, el cloud computing —trasladar la potencia de cálculo cerca de los usuarios en lugar de aislarla a cientos o miles de kilómetros— se ha materializado mediante computación distribuida. Los ejemplos de big data irrumpen en industria, el rural o el mundo del videojuego, gracias a la ‘fog computing‘ o computación en la niebla. La fog computing busca que la nube de internet esté junto a los usuarios y usuarias de la red.
¿Qué es el ‘fog computing’? ¿En qué se diferencia del ‘edge computing’?
Acuñado por Cisco en 2014, fog computing es una forma de procesamiento de datos en una suerte de servidor distribuido conformado por el ‘internet de proximidad’. Un ejemplo: en lugar de procesar el videojuego en tu móvil, o en un servidor a miles de kilómetros, hacerlo en los equipos ubicados en las estaciones base de telefonÃa. La calidad de juego es notablemente mejor.
No hay que confundir fog computing con edge computing. Aunque similares, y ambos parte de la computación en la nube, tienen sus diferencias. Mientras que el edge computing realiza el procesamiento de datos dentro de los dispositivos o en aquellos que sirven de puerta de enlace; la fog computing hace uso de dispositivos que estén cerca de la fuente de datos y conectados en red.
¿Por qué acercar el procesamiento de datos?
Antes de la internet, todos los datos eran procesados ‘en local’, en los ordenadores de cada cual. Con la llegada de la red de redes, los datos empezaron a procesarse en servidores. Cuando alguien, en algún lugar, pide acceder a una web, su señal viaja hasta una granja de servidores donde esta está alojada, y se le envÃa una copia. Pero esto tiene sus lÃmites.
Uno de los motivos por los que acercar el procesamiento de datos a los usuarios es el ‘caudal de datos’ necesario para operar. Una fábrica ejemplo de big data genera un flujo de información que es inviable enviar a la nube tal y como se conoce. En su lugar, parte de su actividad ‘en red’ se procesa en las inmediaciones, reduciendo la latencia, el consumo energético y el coste.
Otro de los motivos es dar acceso a comunidades parcialmente aisladas, como aldeas con una velocidad de internet limitada. El cloud computing acerca a estas personas el procesamiento de datos, por lo que el uso efectivo de la red se aproxima a la que tiene un urbanita.
El futuro de la computación en la nube
Un año después de que Cisco bautizada el concepto de fog computing se lanzaba a nivel global el OpenFog Consortium, formado también por Intel, Microsoft, Dell, ARM Holdings y la Universidad de Princeton en inicio (hoy por más de 50 empresas). ¿El objetivo? Estandarizar el concepto de computación en la niebla para hacerlo más seguro y rápido.
En el horizonte se encuentra un internet de proximidad que rodea a los usuarios y usuarias de la red, una nube baja en forma de niebla que evapora datos de los dispositivos y los condensa casi en local. Al internauta le es indiferente el dónde se procesan los datos, siempre que resulte conveniente usarlos. Y el cloud computing hace más rápida la conexión al reducir la distancia.
Cloud, fog, edge, local. Ajenos a estas etiquetas, los internautas usarán todos los tipos de red en paralelo, porque no se trata de soluciones aisladas o dicotomÃas por las que optar en detrimento del resto. Se pueden, y deben, usar a la vez. Algunos datos será posible procesarlos dentro del dispositivo (local), otros en el borde de red (edge), unos irán a la niebla (fog) y otros a la nube lejana (cloud).