Cómo Aviva Construyó una Plataforma MLOps Escalable y Segura con Amazon SageMaker

Elena Digital López

Aviva, una de las compañías de seguros más antiguas del mundo, ha dado un significativo salto hacia la innovación tecnológica con la implementación de una plataforma MLOps completamente sin servidores. Esta iniciativa busca utilizar la inteligencia artificial y el aprendizaje automático para optimizar sus procesos y ofrecer mejores experiencias a sus más de 33 millones de usuarios distribuidos en 16 países.

Con el apoyo de Amazon Web Services (AWS), Aviva ha desarrollado esta avanzada plataforma utilizando el Marco de MLOps Empresarial de AWS junto a Amazon SageMaker. Esto ha permitido integrar las mejores prácticas de DevOps en el ciclo de vida del aprendizaje automático, estandarizando el desarrollo, desplegando eficientemente modelos, y garantizando un monitoreo constante de su desempeño en producción.

El despliegue y la operación a gran escala de modelos de aprendizaje automático presenta un gran desafío para las organizaciones. Según un estudio de Gartner, cerca del 47% de los proyectos de ML nunca llegan a producción. Sin embargo, Aviva ha logrado romper esta barrera, soportando un volumen significativo de 400,000 reclamos de seguros al año.

Para demostrar su eficacia, la compañía implementó el caso de uso denominado «Remedy», un sistema de gestión de reclamaciones para el sector automotriz. Este enfoque basado en datos calcula si las reclamaciones son pérdida total o reparables, considerando los costos de reparación frente al valor del vehículo y otros datos relevantes. Las recomendaciones resultantes ayudan a optimizar la toma de decisiones de los manejadores de reclamos.

La implementación de «Remedy» ha demostrado ser un éxito, no solo como modelo para futuros proyectos, sino también como evidencia del potencial de la plataforma para gestionar la industrialización de modelos de ML mediante soluciones preconfiguradas. La plataforma de MLOps de Aviva se caracteriza por su arquitectura modular, empleando bloques que cubren desde redes hasta plantillas de proyectos de Amazon SageMaker. Estos módulos se aplican en cuentas de AWS dedicadas a desarrollo, pruebas y producción, lo que facilita la promoción de modelos de manera consistente.

El flujo de trabajo del modelo de inferencia combina predicciones, datos externos y lógica empresarial para generar recomendaciones, permitiendo decisiones mejor informadas respecto a los vehículos tras siniestros. Este sistema garantiza que todas las acciones estén basadas en información completa y precisa, siendo capaz de descartar vehículos, buscar alternativas de reparación o exigir más investigaciones.

Aviva ha logrado reducir sus costos de infraestructura en un 90% en comparación con su solución anterior basada en ML local. Esta transformación ha permitido a la compañía desplegar rápidamente cientos de casos de uso de ML, consolidando su capacidad de innovación y adaptación en el competitivo sector de servicios financieros.

Scroll al inicio