Déploiements de modèle

Dépanner les déploiements de modèle.

Débogage d'un échec de déploiement de modèle

Après que vous avez créé ou mis à jour un déploiement, vous pouvez voir un échec. Les étapes suivantes montrent comment déboguer le problème :

  1. Dans la page d'accueil de votre projet, sélectionnez Déploiements de modèle.
  2. Sélectionnez le nom du déploiement de modèle ou sélectionnez le menu Actions (trois points) pour le déploiement de modèle et sélectionnez Voir les détails. Vérifiez ensuite les demandes de travail.
  3. Sous Ressources, sélectionnez Demande de travail.

    Les demandes de travail apparaissent au bas de la page.

  4. Dans la page Informations sur les demandes de travail, sélectionnez Messages du journal.
  5. Si des échecs se produisent lors des étapes de création, sous Ressources, sélectionnez Messages d'erreur.
  6. Si la demande de travail indique une réussite, consultez les journaux de prédiction OCI pour identifier les erreurs éventuelles.

    Les journaux sont associés au déploiement de modèle lors de sa création.

  7. Si des journaux sont joints, sélectionnez le nom du journal de prévision pour voir le journal.
  8. Sélectionnez Explorez avec la recherche dans les journaux.
  9. Modifiez le filtre de temps pour augmenter la période.

Le chemin de l'environnement Conda n'est pas accessible

Assurez-vous que le chemin de l'environnement Conda est valide et que vous avez configuré la politique appropriée pour un environnement Conda publié. Le chemin de l'environnement Conda doit rester valide et accessible tout au long du cycle de vie du déploiement de modèle pour garantir la disponibilité et le bon fonctionnement du modèle déployé.

Une erreur est survenue lors du démarrage du serveur Web

Activez les journaux de prédiction du déploiement de modèle pour vous aider à déboguer les erreurs. En général, cela se produit lorsque votre code présente des problèmes ou qu'il y manque des dépendances requises.

Échec de l'appel d'un modèle de déploiement

Lorsqu'un déploiement de modèle se trouve dans une instance lifecycleState active, le point d'extrémité de prédiction ou de diffusion en continu peut être appelé. La réponse de prédiction peut retourner un échec pour de nombreuses raisons. Utilisez ces suggestions pour tenter de résoudre ces erreurs :

  1. Assurez-vous que l'entrée transmise dans la demande a un format JSON valide et correspond à l'entrée attendue par le modèle.

  2. Consultez les journaux d'accès joints pour déterminer les erreurs éventuelles.

  3. Assurez-vous que l'utilisateur dispose des droits d'accès corrects.

  4. Assurez-vous que le fichier score.py ne contient pas d'erreurs.

  5. Si les prévisions retournent des résultats différents (réussite, échec) chaque fois que la prévision est appelée pour la même entrée, il est possible que les ressources affectées ne suffisent pas pour traiter la prévision du modèle. Vous pouvez modifier la bande passante de l'équilibreur de charge pour l'augmenter, ainsi que le nombre de coeurs de calcul, pour traiter plus de demandes en parallèle.

Trop de demandes (statut 429)

Si vous obtenez cette erreur lors de l'appel du point d'extrémité d'inférence, les demandes sont ralliées.

La solution dépend du type d'erreur :

Limite de bande passante de l'équilibreur de charge dépassée
Modifiez le déploiement de modèle pour augmenter la bande passante de l'équilibreur de charge. Vous pouvez estimer la bande passante en fonction du nombre de demandes attendu en secondes et de la taille combinée des données utiles de demande et de réponse par demande.
Limite de taux de demande de location dépassée

Chaque point d'extrémité de prédiction autorise par défaut un nombre spécifique de demandes dans un certain intervalle de temps (minutes ou secondes) par locataire. Pour plus d'informations, voir la documentation sur l'appel d'un déploiement de modèle. Ouvrez un ticket de soutien à partir de la console OCI pour soumettre une demande d'augmentation de la limite.