Cómo llevar a cabo un proyecto de Edge Computing con éxito

A medida que el mercado pasa de las pruebas de concepto a las grandes implementaciones multi-aplicación que requieren escalabilidad, surgen diferentes alternativas tecnológicas en el Edge. En este artículo, exploramos la base para un proyecto de Edge Computing exitoso.

Tecnología

El Edge Computing se está convirtiendo en una tecnología clave para la digitalización y la automatización de la industria. La capacidad de ejecutar aplicaciones digitales cerca de los procesos de producción permite múltiples casos de uso, como la monitorización remota en tiempo real, el mantenimiento predictivo, la optimización del rendimiento de los procesos o la creación de nuevos modelos de negocio basados en el intercambio de información.

Sin embargo, las empresas aún enfrentan algunos desafíos al introducir el Edge Computing en sus arquitecturas IT/OT.

A medida que el mercado pasa de las pruebas de concepto en el Edge a las grandes implementaciones multi-aplicación que requieren escalabilidad, surgen diferentes alternativas tecnológicas y es necesario tomar decisiones. El mundo industrial no es tolerante a fallos, y una mala decisión puede significar el fracaso del despliegue de esta tecnología.

En este artículo cubrimos las consideraciones clave sobre cómo hacer que un proyecto de Edge Computing tenga éxito.

La base para un proyecto de Edge Computing exitoso

1. El equipo y la creciente relevancia del CDO

El reciente estudio de Stratus sobre las tendencias de Edge muestra una falta general de conocimiento del Edge, y más concretamente del Internet de las Cosas (IoT), como las mayores barreras para las implementaciones corporativas de Edge Computing.

A menudo, muchas empresas eligen a sus CIO o COO para liderar las implementaciones de edge computing. En nuestra opinión, esto no es óptimo, ya que los desvía de sus objetivos más tradicionales y carecen de experiencia en esta área. Lo ideal sería que el Chief Data Officer (CDO) de la organización sea quien lidere esta implementación.

El Chief Data Officer es responsable de gestionar los datos como un activo en toda la empresa. Su principal objetivo es reducir costes o aumentar los ingresos a través del procesamiento avanzado o la comercialización de los datos de los procesos de producción. Este perfil combina un conocimiento matemático-científico y conocimiento del negocio, y comprende los beneficios del Edge, como la velocidad y la escalabilidad en el procesamiento de datos, o la seguridad de los datos. Pero, lo que es más importante, las operaciones en el Edge impactan directamente en los objetivos del CDO y, por lo tanto, su impulso es natural.

Por lo tanto, nuestra primera recomendación a cualquier empresa que desee implementar Edge Computing es contratar a un CDO y un equipo compuesto por científicos de datos, ingenieros de sistemas y expertos en ciberseguridad.

2. Las fases del Edge Computing, divide y vencerás

El despliegue, liderado por el CDO, debe realizarse de forma gradual en un proceso ágil pero estructurado. Cada fase tiene sus propios objetivos e indicadores de éxito. No hacerlo puede conducir a una espiral de errores interconectados que pueden resultar en un sistema inestable e ineficiente. Recomendamos 4 etapas al abordar un proyecto de Edge Computing. La primera pregunta siempre está relacionada con cuánto tiempo lleva. Con el equipo y los productos adecuados, no debería llevar más de tres meses.

Fase 1: selección del caso de uso

Una implementación exitosa comienza con la comprensión exacta de cuál es su objetivo y qué espera lograr. Antes de ponerse en contacto con el primer proveedor, instalar el primer equipo o escribir la primera línea de código, debe ser capaz de seleccionar una aplicación estrella para encabezar su implementación de Edge Computing. Para ello, lo mejor es realizar un análisis para identificar aquellos procesos que cumplan el máximo número de las siguientes condiciones:

  1. No están optimizados, existe una gran carga en la toma de decisiones con poca información.
  2. Manejan una gran cantidad de datos
  3. La seguridad de los datos es importante
  4. Requieren una toma de decisiones rápida y casi en tiempo real
  5. Contienen activos distribuidos y su conectividad puede ser un reto.

Al revisar los procesos comerciales críticos y clasificarlos en una matriz a lo largo de estos cinco ejes, podemos encontrar el proceso (o procesos) cuya puntuación más alta significa que es un candidato indiscutible para beneficiarse del Edge Computing.

Fase 2: Recolección de datos

Una vez que se ha seleccionado el caso de uso, debe comenzar una fase de recopilación, limpieza, etiquetado y almacenamiento de los datos gestionados por el proceso. Para ello, se desplegarán los primeros Edge Nodes y mediante el uso de Conectores de Software, podemos recopilar datos de sensores, actuadores, equipos industriales y servidores internos o externos.

Los datos recogidos pueden limpiarse para eliminar inconsistencias y etiquetarse para mejorar el procesamiento posterior. A veces, se puede incluir un procesamiento de datos sencillo en esta fase, como la generación de alarmas para datos anómalos o la generación de informes de indicadores sencillos sobre el proceso. Este no es el objetivo final del despliegue, pero ayudará a depurar cualquier error y a llegar a mejores conclusiones.

Fase 3: entrenamiento de modelos

Utilizando los datos que se recogen continuamente, comienza la fase de entrenamiento del modelo. En esta fase, hay aspectos clave como la estandarización, la correcta selección de herramientas o el diseño para la interoperabilidad del modelo, que se describe perfectamente en el artículo de la Harvard Business Review cómo escalar la IA. En este proceso liderado por científicos de datos, las plataformas Edge Computing ayudan con las funcionalidades relacionadas con MLOps, que permiten generar, probar y ejecutar modelos de forma ágil y segura.

Fase 4: Despliegue, operación y gobernanza de la IA distribuida

Una vez que los científicos de datos deciden que los modelos están suficientemente entrenados, entran en juego sistemas que, como el que Barbara proporciona, permiten enviar, iniciar, supervisar, detener o actualizar aplicaciones y modelos a miles de Edge Nodes distribuidos. Dependiendo del volumen del despliegue, puede ser interesante realizar despliegues progresivos por ubicaciones hasta cubrir todo el territorio. En este punto, y una vez que las aplicaciones distribuidas están controlando el proceso con los modelos entrenados, habremos alcanzado el máximo potencial del Edge Computing y podremos contrastar las mejoras obtenidas con las expectativas definidas en la primera fase del proceso.

Elegir el tipo correcto de Edge Computing

El Edge Computing es un tipo genérico de arquitectura. Cuando se aplica a una industria o proyecto específico, es importante conocer sus diferentes capas para utilizar la que mejor se adapte al proyecto. Cada vez es más común diferenciar entre dos tipos de Edge: Thick Edge y Thin Edge, que se refieren a dónde se produce el procesamiento de datos.

Borde delgado

Edge Grueso

Este es el procesamiento que tiene lugar en los nodos, ubicados en la infraestructura del operador de la red troncal, pero cerca de los dispositivos del cliente. Esto, en una red celular móvil, puede ser la antena a la que se conectan los dispositivos, o en una infraestructura de red fija puede ser un servidor ubicado en el centro de datos más cercano a nuestra ubicación.  

Se denomina "Thick" (grueso) porque estos nodos suelen tener una alta capacidad de procesamiento, en primer lugar porque están situados en lugares donde el consumo de energía o el espacio no son un problema, y en segundo lugar porque al reclamar al operador de red tiene que ser capaz de procesar datos de múltiples clientes finales. Cuando los operadores de telecomunicaciones hablan de edge computing, se refieren a este tipo de casuística.  

Borde delgado

Implica que el procesamiento se realiza en nodos propiedad del cliente final, ubicados en su red local y, por lo tanto, aún más cerca de sus dispositivos. El adjetivo "Thin" (delgado) es apropiado en este caso, ya que estos nodos suelen tener una capacidad de procesamiento más limitada y consumen menos recursos que los dispositivos Thick Edge.

Si bien no es posible trazar una línea perfecta entre Thick Edge y Thin Edge, ya que hay casos en los que ambos modelos podrían funcionar, es interesante comprender sus diferencias desde algunos puntos de vista para elegir el que mejor se adapte a nuestro proyecto:

  • Desde un punto de vista de latencia, Thin Edge puede procesar datos mucho más rápido que Thick Edge. La gran promesa de los operadores de red para eliminar la latencia son las redes 5G, pero incluso en el nuevo estándar es difícil bajar de latencias de menos de 20 ms en la práctica, cuando si el procesamiento se realiza en la red local podemos llegar a un "casi tiempo real" con latencias cercanas a 1 ms.
  • En términos de seguridad y privacidad, el Thin Edge permite preservar aún más la privacidad y la seguridad de los datos, ya que los datos no salen de la red local del cliente, como ocurre con el Thick Edge, que requiere llevar los datos un paso más allá hasta la infraestructura del operador local, que está fuera de nuestro control.
  • En términos de coste, una implementación Thin Edge suele requerir una mayor inversión inicial para la compra e instalación de nodos, mientras que Thick Edge, que implica nodos compartidos del operador de red, suele pasar a estructuras de "IaaS" (Infraestructura como Servicio) con pago por uso que no requieren inversión inicial.
  • Por último, como se ha mencionado anteriormente, los nodos Thick Edge pueden procesar un mayor volumen de datos porque están dotados de más recursos que los nodos Thin Edge.

Esto hace que el Thin Edge sea mucho más adecuado para entornos que requieren latencias de respuesta rápidas, que desean aislarse lo máximo posible del operador de red por razones de seguridad o privacidad y se aplican presupuestos CAPEX como en la industria de la Energía y el Agua.

El caso del Edge Grueso, sin embargo, es más adecuado para sistemas donde la latencia no es absolutamente crítica, que requieren procesar flujos de datos de un ancho de banda significativo y tienden a operar con costes operativos (OPEX) en lugar de inversión. Esto sitúa este tipo de tecnología cerca de industrias más ligeras y más cerca del consumidor, como Fintech, Media o Retail.

Barbara, la plataforma Edge Cibersegura para Industrias

Barbara,ayuda a las organizaciones a simplificar y acelerar sus despliegues Edge AI, construyendo, orquestando y manteniendo fácilmente aplicaciones basadas en contenedores o nativas a través de miles de nodos Edge distribuidos:

  • Procesamiento de datos en tiempo real: Barbara permite el procesamiento de datos en tiempo real en el Edge, lo que puede conducir a una mejora de la eficiencia operativa y al ahorro de costes. Al procesar los datos en el Edge, las organizaciones pueden reducir la cantidad de datos que deben transmitirse a la nube, lo que se traduce en tiempos de respuesta más rápidos y una menor latencia.
  • Mayor escalabilidad: Barbara ofrece la posibilidad de escalar vertical u horizontalmente en función de las necesidades de la organización, lo que puede ser beneficioso para los procesos industriales que tienen diferentes niveles de demanda.
  • Seguridad mejorada: Barbara ofrece sólidas funciones de seguridad para garantizar que los datos estén protegidos en todo momento. Esto es especialmente importante para los procesos industriales que manejan información sensible.
  • Flexibilidad: Barbara es una plataforma flexible que se puede personalizar para satisfacer las necesidades específicas de una organización. Esto permite a las organizaciones adaptar la plataforma a su caso de uso específico, lo que puede conducir a una mayor eficiencia y ahorro de costes.
  • Gestión remota: Barbara permite la gestión y el control remotos de dispositivos, aplicaciones y datos en el Edge, lo que permite a las organizaciones gestionar su infraestructura desde una ubicación centralizada.
  • Integración: Barbara puede integrarse con sistemas y plataformas existentes, lo que permite a las organizaciones aprovechar sus inversiones actuales y mejorar la eficiencia.