La IA en el perímetro se ha convertido en una tecnología revolucionaria para el mundo industrial. Las industrias con activos críticos muy distribuidos serán las grandes beneficiarias de llevar la informática avanzada al Edge.
Desde que se añadió como campo de estudio en las universidades en 1956, la Inteligencia Artificial ha pasado por períodos de optimismo y pesimismo en igual medida. No hay duda de que hoy estamos presenciando uno de gran optimismo.
La ciencia de datos es el tercer puesto de trabajo más solicitado en todo el mundo (de hecho, en nuestro reciente estudio sobre el Estado del Edge Computing en España, el científico de datos es el profesional más buscado entre las empresas españolas) en un mercado que está experimentando un crecimiento exponencial, que alcanzará los 190.000 millones de dólares en 2025.
Es tal el protagonismo de la IA en el mercado de la Industria que ya no tiene sentido hablar de ella como una tecnología, sino como muchas ramas que sirven para diferentes usos y a diferentes industrias.
Esto está perfectamente dibujado en el "Hype cycle" de Gartner de 2021.
Entre las tendencias identificadas como las más maduras y cercanas a la fase de producción se encuentran las que podemos identificar en nuestra rutina diaria. Como el procesamiento del lenguaje natural que utilizamos cuando hablamos con chatbots cada vez más humanos, el procesamiento de imágenes que permite automatizar el procesamiento de vídeo en tiempo real, y las búsquedas semánticas, que conducen a mejores resultados de búsqueda.
En el otro extremo, hay otros más futuristas que no surgirán hasta dentro de al menos 10 años. Algunos ejemplos interesantes son las tecnologías AI TRISM (Trust, Risk and Security Management), que permiten regular los modelos de IA haciéndolos más resistentes a los ataques de seguridad y privacidad, y los Transformers, que permiten adaptar los modelos de IA para que se ajusten al contexto y tendrán un gran impacto en la mejora de aplicaciones como los traductores, la creación automática de documentos o el análisis de secuencias biológicas.
Entre los dos extremos se encuentran otras tecnologías habilitadoras que tardarán entre 2 y 5 años desde su despliegue hasta la madurez del mercado, lo que puede denominarse el "Futuro Cercano de la IA". Entre ellas se encuentran la IA centrada en el ser humano, la IA generativa, la orquestación y automatización de la IA y, liderando a todas las demás en la curva de madurez, la IA en el Edge, también conocida como "Edge AI".
Edge AI puede resumirse como la capacidad de ejecutar algoritmos de inteligencia artificial en dispositivos (dispositivos IoT, dispositivos edge) que están muy cerca de la fuente de datos. Esta tecnología está creciendo debido a una estadística desalentadora: más del 60% de las organizaciones industriales no tienen una infraestructura Cloud implementada que les ayude a innovar de manera eficiente.
En Barbara estamos encontrando patrones repetidos en industrias que están a la vanguardia en Edge AI. Todas ellas manejan muchos activos críticos distribuidos. Es decir, son industrias que se enfrentan a grandes retos de fragmentación tecnológica, escalabilidad y ciberseguridad y que se pueden minimizar ejecutando algoritmos de IA en el edge. Podemos pronosticar que estas industrias desarrollarán casos de uso muy ambiciosos y transformadores; hasta el punto, que están muy familiarizados con conceptos como IoT Edge y Edge Computing.
Los sistemas SCADA que se han utilizado desde los años 80 tienen propósitos similares en términos de recopilación y procesamiento de datos. Sin embargo, los sistemas SCADA deben complementarse con tecnologías más modernas para que puedan responder a los requisitos cada vez más exigentes de interoperabilidad, apertura y seguridad donde Edge AI puede ayudar y puede multiplicar el valor de estos sistemas.
Existen diferentes interpretaciones sobre el significado de "borde" cuando nos referimos a Edge AI. El Edge tiene profundidad. Tradicionalmente, el borde se ha identificado como la infraestructura del operador de red más cercana al usuario. Cuando hablamos de redes 5G, nos referimos a operadores que están desplegando multitud de nodos denominados "Multiaccess Edge Computing" que se utilizan para el procesamiento de datos cercano. Estos nodos están instalados en servidores muy similares a los que se pueden encontrar en un centro de datos diseñado para albergar servicios en la nube y tienen un alto potencial, así como la capacidad de recursos para procesar algoritmos complejos de IA. Es lo que algunos analistas denominan "Thick" Edge.
Sin embargo, existen otros tipos de nodos Edge, unos conectados directamente a sensores e interruptores que se instalan en dispositivos de bajo consumo como gateways o concentradores y ejecutan algoritmos de IA más sencillos con tiempos de respuesta más cortos, muy cercanos a las respuestas en tiempo real. Este nuevo tipo de Edge se denomina Edge “Thin”, muy adecuado para abordar rápidamente proyectos a gran escala que impliquen ubicaciones remotas o requisitos de alta seguridad.
Edge AI se basa tradicionalmente en modelos de decisión que se entrenan utilizando grandes cantidades de datos. El modelo, que consiste en una serie de fórmulas matemáticas, se instala en Edge nodes. A partir de ahí, cada nodo es capaz de tomar sus propias decisiones en función de los datos que recibe y del modelo que se ha instalado.
El nuevo paradigma, conocido como Edge Mesh, permite que la decisión de un nodo esté condicionada por otros nodos como si se tratara de una red enrejada. Un buen ejemplo para comprender el poder de esta nueva arquitectura es un sistema de tráfico inteligente.
Un nodo Edge puede tomar decisiones sobre el tiempo de un semáforo utilizando algoritmos de IA que tienen en cuenta el número de coches y personas detectadas por los sensores. Sin embargo, esta decisión podría complementarse perfectamente con las decisiones que tomen otros nodos en las calles cercanas.
El objetivo de Edge Mesh es distribuir la inteligencia entre varios nodos con el fin de ofrecer un mejor rendimiento, tiempos de respuesta y tolerancia a fallos que con las arquitecturas más tradicionales.
A medida que la industria avanza hacia el despliegue de Edge AI con nodos más distribuidos y algoritmos de entrenamiento más complejos, la capacidad de mantener el ciclo de vida de estos modelos entrenados, y de los dispositivos que los ejecutan, será clave para el futuro de esta tecnología.
En este sentido, se potenciarán los proyectos y las empresas que apliquen la filosofía DevOps para el desarrollo, la puesta en marcha y el mantenimiento de algoritmos de IA. Esta filosofía se denomina MLOps, una combinación de Machine Learning y DevOps.
Pero, ¿en qué consiste exactamente? MLOps pretende reducir los tiempos de desarrollo, prueba y aplicación de los modelos de IA en el Edge mediante una integración continua de equipos y entornos de desarrollo, pruebas y operaciones.
No cabe duda de que el intercambio de datos será primordial para mejorar los procesos en los sectores industriales con muchos interesados dentro de la cadena de valor.
Analicemos el modelo de red eléctrica del futuro próximo, una red inteligente (Smart Grid). Para poder recibir u ofrecer un mejor servicio, es esencial que los proveedores puedan analizar y procesar la información de una serie de partes interesadas, como prosumidores, operadores, distribuidores, agregadores, etc. Sin un intercambio de datos transparente y ágil, será imposible alcanzar la optimización de la red necesaria para 2050.
Con Edge AI es posible un procesamiento de datos on-centralizado, lo que ayudará a superar algunos de los obstáculos a los que se enfrenta actualmente la industria, como la seguridad, la privacidad y la soberanía de los datos.