Desarrollo de un Endpoint de Inferencia en SageMaker con Modelo Personalizado y Contenedor Ampliado

Elena Digital López

Amazon ha lanzado una nueva funcionalidad para su plataforma Amazon SageMaker, con la que busca facilitar a los usuarios la creación, el entrenamiento y el despliegue de modelos de aprendizaje automático (ML) de manera más escalable y personalizada. Este avance es particularmente relevante para sectores que demandan soluciones a medida, como el análisis geoespacial, la investigación en bioinformática o el desarrollo de modelos de aprendizaje automático cuántico.

Una de las principales novedades de SageMaker es que ahora permite a los desarrolladores extender su funcionalidad mediante el uso de contenedores personalizados. Esto significa que los usuarios pueden incluir sus propios modelos y dependencias de software que no están disponibles en las imágenes de contenedor administradas directamente por SageMaker. En una reciente guía, el modelo Prithvi de la NASA, desarrollado en colaboración con IBM, ha sido adoptado. El modelo Prithvi utiliza una arquitectura de transformadores de visión temporal y ha sido entrenado con datos provenientes de los satélites Landsat y Sentinel 2.

Este modelo es capaz de realizar tareas como la detección de cicatrices de incendios, la clasificación de cultivos y la cartografía de inundaciones, utilizando para ello la biblioteca mmsegmentation. Para implementar este tipo de modelos personalizados en SageMaker, es necesario seguir un proceso que incluye la creación de definiciones de modelos personalizadas, la preparación de artefactos y archivos de inferencia sostenidos por una estructura adecuada, y la carga de estos elementos en Amazon S3.

Un aspecto notable de estas nuevas capacidades es la posibilidad de integrar librerías y paquetes adicionales que no están presentes en las imágenes de contenedor estándar. Esto ofrece a los investigadores y desarrolladores un control total sobre el ambiente y las dependencias de su modelo.

Para desplegar un modelo en SageMaker, los usuarios deben construir una imagen de contenedor que incluya el modelo y sus dependencias, crear un archivo de especificación de compilación, y posteriormente seguir una serie de pasos a través de la interfaz de Amazon SageMaker Studio. Una vez creada la infraestructura, es posible probar el punto de inferencia mediante la creación de casos de prueba que envían imágenes para ser procesadas, y reciben predicciones en tiempo real.

Este avance reafirma el compromiso de Amazon con la innovación en el ámbito del aprendizaje automático, proporcionando a desarrolladores e investigadores herramientas eficaces y personalizables que facilitan la implementación de soluciones complejas. A medida que la inteligencia artificial y el análisis de datos continúan en expansión, SageMaker se está posicionando como una plataforma crucial para el desarrollo y despliegue de modelos de machine learning adaptados a necesidades específicas.

Scroll al inicio