Mesures de déploiement de modèle

Découvrez comment utiliser les mesures pour les déploiements de modèle.

Les mesures sont automatiquement disponibles pour tous les déploiements de modèle Data Science que vous créez dans l'espace de nom oci_datascience_modeldeploy. Vous n'avez pas besoin d'activer la surveillance sur les ressources OCI pour obtenir ces mesures.

Les mesures des déploiements de modèle Data Science incluent les dimensions suivantes :

resourceId

OCID du déploiement de modèle.

statusCode

Code de statut de réponse HTTP.

result

Résultat de la réponse :

  • Success

  • Failure

statusFamily

Famille de statut du résultat :

  • Success: 2XX

  • Failure: 4XX and 5XX

instanceId

ID de l'instance.

networkType

Types de réseau :

  • BytesIn: Network receive throughput
  • BytesOut: Network transmission throughput

modelOcid

OCID du modèle dans le groupe de modèles déployé. Vous pouvez filtrer les journaux de demandes de prédiction propres au modèle en fonction de modelOcid au niveau du routeur de modèle.

Noms des mesures Nom d'affichage Unité Description Dimensions
PredictRequestCount Nombre de demandes de prédiction Nombre Nombre de demandes de prédiction.

resourceId

PredictResponse Réponse de prédiction - Taux de succès Pourcentage Taux de succès de réponse de prédiction. Il est calculé en fonction du nombre de demandes de prédiction ayant abouti par rapport au nombre total de demandes de prédiction.

resourceId

statusCode

result

statusFamily

Réponse de prédiction - Statut Nombre Résultat et code de statut de réponse de prédiction.
PredictLatency Latence de prédiction Millisecondes Latence des appels de prédiction.

resourceId

result

PredictBandwidth Utilisation de la bande passante de prédiction Pourcentage

Bande passante de prédiction provisionnée et consommée. La bande passante provisionnée correspond à la bande passante attendue par le client définie lors de la création du déploiement de modèle. La bande passante consommée est la bande passante active consommée par toutes les demandes de prévision en cours pour un OCID de déploiement de modèle spécifique. Cette bande passante est calculée comme la bande passante consommée en cours par rapport à la bande passante totale d'équilibreur de charge provisionnée pour chaque demande de prédiction.

resourceId

CpuUtilization Utilisation de l'UC Pourcentage Niveau d'activité de l'UC.

resourceId

instanceId

MemoryUtilization Utilisation de la mémoire Pourcentage Mémoire utilisée.

resourceId

instanceId

NetworkBytes Octets de réception et de transmission réseau Octets/s Débit de réception et de transmission réseau.

resourceId

instanceId

networkType

GPUCoreUtilization Utilisation de GPU Pourcentage Affiche l'utilisation des périphériques GPU dans un cluster de déploiement de modèle.

resourceId

instanceId

GPUMemoryUtilization Utilisation de la mémoire GPU Pourcentage Affiche l'utilisation moyenne de la mémoire de tous les périphériques GPU dans un cluster de déploiement de modèle.

resourceId

instanceId

Affichage des mesures de déploiement de modèle

Vous pouvez afficher les graphiques de mesures par défaut à l'aide de la page de détails d'un déploiement de modèle dans le service Data Science.

  1. Sur la page Déploiements de modèle, sélectionnez le nom du déploiement de modèle pour lequel afficher les mesures. Si vous avez besoin d'aide pour trouver la liste des déploiements de modèle, reportez-vous à Liste des déploiements de modèle.
  2. Sous Ressources, sélectionnez Mesures.

    La zone Mesures affiche un graphique pour chaque mesure émise vers l'espace de noms de mesure de Data Science.

Pour plus d'informations sur les mesures émises, reportez-vous à Mesures de déploiement de modèle.

Si vous ne voyez pas les données des mesures attendues d'un déploiement de modèle, reportez-vous à Données de mesures manquantes.