Este post explora cómo las capacidades MLOps de Barbara simplifican el despliegue remoto de modelos de IA -como ResNet18- en dispositivos periféricos, todo ello gestionado sin esfuerzo a través de una única consola intuitiva. Descubre lo fácil que puede ser el despliegue de IA en los bordes.
Liberar todo el potencial de la IA en la industria requiere desplegar modelos de aprendizaje automático en el borde, donde se generan los datos. Barbara lo hace posible, ofreciendo un despliegue eficaz, escalabilidad y un procesamiento de datos fiable.
Las capacidades de gestión de MLOps de Barbara permiten a los usuarios:
1. Carga modelos entrenados: Integra sin problemas modelos entrenados en la plataforma, soportando una variedad de formatos, incluyendo TensorFlow SavedModel, PyTorch TorchScript y ONNX.
2. Desplegar modelos en nodos de borde: Con un solo clic, puedes desplegar modelos en uno o varios nodos de borde.
3. Elige el motor servidor adecuado: Puedes elegir entre el motor servidor TFX de TensorFlow y el servidor de inferencia Triton de NVIDIA para servir los modelos desplegados en el nodo.
4. Aprovecha la potencia de la GPU: Utiliza las capacidades de la GPU de los dispositivos de borde para acelerar la inferencia del modelo y mejorar el rendimiento en tiempo real.
Las capacidades MLOps de Barbara eliminan los retos de desplegar y gestionar la IA en la periferia, permitiendo a las organizaciones liberar todo el potencial de sus modelos. Al simplificar el proceso de despliegue y ofrecer opciones de servicio flexibles, Barbara ayuda a las operaciones industriales a mantenerse ágiles, eficientes y a la vanguardia.
El modelo ResNet18, una popular red neuronal convolucional (CNN), está diseñado específicamente para tareas de clasificación de imágenes. Destaca en el reconocimiento de objetos como animales, equipos o componentes en imágenes, lo que la hace muy valiosa en sectores como la fabricación, la sanidad y la logística. El despliegue de ResNet18 en un dispositivo periférico permite una inferencia más rápida y minimiza la dependencia de la conectividad en la nube.
Utilizando la Plataforma Barbara Edge AI, el proceso de despliegue se divide en 3 pasos clave:
Antes de desplegar el modelo, hay que cargarlo en la biblioteca del Panel en un formato de modelo compatible. Recuerda que las opciones son
En este caso utilizaremos el framework Pytorch para descargar el modelo preentrenado de Resnet18 y guardarlo localmente en formato Torchscript. El siguiente script demuestra cómo descargar el modelo ResNet18, convertirlo al formato TorchScript y guardarlo como resnet18_traced.pt.
Una vez que tengamos el archivo resnet18_traced.pt, sólo tenemos que comprimirlo en un archivo zip y subirlo a la biblioteca de nuestro Panel.
TorchScript garantiza la compatibilidad con NVIDIA Triton, el motor de servicio de modelos de Barbara, por lo que utilizaremos ese servidor de inferencia en nuestro Nodo Edge.
Después de subir nuestro modelo, estará disponible en nuestra Lilbrary, listo para ser desplegado en cualquier Nodo Edge.
Aprende a cargar tu modelo directamente desde Jupyter Notebook en el siguiente vídeo "Habla con el experto".
La inferencia implica enviar una imagen al modelo a través de la API REST y recibir los resultados de la clasificación. Utilizaremosun Jupyter Note book para realizar la solicitud de inferencia a nuestro nodo. Este Jupyter Notebook hará varias cosas:
Porúltimo, se interpretan los resultados obtenidos del modelo y éstos son los resultados:
Implantar modelos de IA como ResNet18 en dispositivos periféricos es sencillo y eficaz con la Herramienta de Orquestación Periférica de Barbara. Combinando la potencia de PyTorch, NVIDIA Triton y la plataforma de Barbara, las organizaciones pueden desbloquear capacidades de IA en tiempo real en el perímetro.
¿Preparadopara llevar tus modelos de IA al límite? ¡Empieza a explorar Barbara hoy mismo! ¡Reserva una demostración!