Déploiements de modèle

Dépannez vos déploiements de modèle.

Débogage d'un échec de déploiement de modèle

Après que vous avez créé un déploiement ou mis à jour un déploiement existant, un échec peut survenir. Les étapes suivantes illustrent la résolution du problème :

  1. Sur la page d'accueil de votre projet, sélectionnez Déploiements de modèle.
  2. Sélectionnez le nom du déploiement de modèle ou le menu Actions (trois points) du déploiement de modèle, puis sélectionnez Afficher les détails. Ensuite, consultez les demandes de travail.
  3. Sous Ressources, sélectionnez Demande de travail.

    Les demandes de travail apparaissent en bas de la page.

  4. Sur la page Informations sur les demandes de travail, sélectionnez Messages du journal.
  5. En cas d'échec lors des étapes de création, sous Ressources, sélectionnez Messages d'erreur.
  6. Si la demande de travail aboutit, consultez les journaux de prédiction OCI pour identifier les erreurs potentielles.

    Les journaux sont attachés au déploiement de modèle lors de sa création.

  7. Si des journaux sont attachés, sélectionnez le nom du journal de prédiction pour l'afficher.
  8. Sélectionnez Rechercher avec la recherche de journal.
  9. Modifiez la durée du filtre pour allonger la période.

Le chemin de l'environnement conda n'est pas accessible

Assurez-vous que le chemin de l'environnement conda est valide et que vous avez configuré la stratégie appropriée pour un environnement conda publié. Le chemin d'environnement conda doit rester valide et accessible tout au long du cycle de vie du déploiement de modèle pour garantir la disponibilité et le bon fonctionnement du modèle déployé.

Une erreur est survenue lors du démarrage du serveur Web

Activez les journaux de prédiction de déploiement de modèle pour vous aider à déboguer les erreurs. En règle générale, une erreur survient lorsque votre code rencontre des problèmes ou qu'il manque des dépendances requises.

Appel d'un échec de déploiement de modèle

Lorsqu'un déploiement d'un modèle est à l'état lifecycleState actif, l'adresse de prédiction ou de transmission en continu peut être appelée. La réponse de prédiction peut renvoyer un échec pour de nombreuses raisons. Utilisez les suggestions suivantes pour tenter de corriger ces erreurs :

  1. Assurez-vous que l'entrée transmise dans la demande est dans un format JSON valide et qu'elle correspond à l'entrée attendue par le modèle.

  2. Consultez les journaux d'accès attachés pour connaître les erreurs.

  3. Assurez-vous que l'utilisateur dispose des droits d'accès appropriés.

  4. Assurez-vous que le fichier score.py ne contient pas d'erreurs.

  5. Si les prévisions retournent des résultats différents (succès, échec) à chaque appel pour la même entrée, il est possible que les ressources allouées ne suffisent pas à traiter la prévision de modèle. Vous pouvez modifier la bande passante d'équilibreur de charge pour l'augmenter et ajouter des coeurs de calcul afin de traiter davantage de demandes en parallèle.

Trop de demandes (statut 429)

Si l'erreur que vous obtenez lorsque vous appelez l'adresse d'inférence, cela signifie que les demandes sont ralenties.

La solution dépend du type d'erreur :

Limite de bande passante de l'équilibreur de charge dépassée
Modifiez le déploiement de modèle pour augmenter la bande passante de son équilibreur de charge. Vous pouvez estimer la bande passante à l'aide du nombre attendu de demandes, et de la taille combinée des charges utiles de demande et de réponse par demande.
Limite de taux de demande de location dépassée

Chaque adresse de prédiction autorise un nombre spécifique de demandes dans un certain intervalle de temps (minutes ou secondes) par locataire par défaut. Pour plus d'informations, reportez-vous à la documentation relative à l'appel d'un déploiement de modèle. Ouvrez un ticket d'assistance à partir de la console OCI pour soumettre une demande d'augmentation de la limite.