Mantenimiento planificado

Data Flow se mantiene de forma regular en la última semana de cada mes.

Para proporcionar el entorno mejor y más seguro para las aplicaciones Spark, se realiza un mantenimiento regular de Data Flow en la última semana de cada mes (ajustado a los días festivos). Los clientes reciben una notificación con dos semanas de antelación sobre el siguiente programa de mantenimiento de la infraestructura. El servicio para automáticamente las ejecuciones de flujo en curso e inicia una nueva ejecución de flujo en los recursos informáticos actualizados.

Data Flow se basa en el punto de control de flujo estructurado de Spark para registrar el desplazamiento procesado que se puede almacenar en el cubo de Object Storage. Cuando se crean los nuevos recursos informáticos, la aplicación de transmisión se reanuda desde el punto de control anterior.