Déploiement de modèle
Suivez ces étapes pour déployer des modèles avec des actions rapides du service d'intelligence artificielle.
Création du déploiement de modèle
Vous pouvez créer un déploiement de modèle à partir des modèles de base avec le marqueur Prêt pour déploiement dans l'explorateur de modèles ou avec des modèles réglés avec précision. Lorsque vous créez un déploiement de modèle dans des actions rapides du service d'intelligence artificielle, vous créez un déploiement de modèle du service de science des données pour OCI, qui est une ressource gérée dans le service de science des données pour OCI. Vous pouvez déployer le modèle en tant que points d'extrémité HTTP dans OCI.
Vous devez disposer de la politique nécessaire pour utiliser le déploiement de modèle du service de science des données. Vous pouvez sélectionner la forme de calcul pour le déploiement de modèle. Vous pouvez configurer la journalisation pour surveiller le déploiement de votre modèle. La journalisation est facultative, mais il est fortement recommandé de vous aider à résoudre les erreurs liées à votre déploiement de modèle. Vous devez disposer de la politique nécessaire pour activer la journalisation. Pour plus d'informations sur les journaux, voir Journaux de déploiement de modèle. Sous l'option avancée, vous pouvez sélectionner le nombre d'instances à déployer et la bande passante de l'équilibreur de charge.
Voir Déploiement de modèle sur GitHub pour plus d'informations et des conseils sur le déploiement de modèles.
Pour accéder aux déploiements de modèle à l'aide de points d'extrémité privés, créez une session de carnet dont le type de réseau est réglé à Réseau personnalisé. Le trafic sortant personnalisé doit résider dans le même VCN et le même sous-réseau que la ressource de point d'extrémité privé.
Pour obtenir la liste complète des paramètres et des valeurs des commandes de l'interface de ligne de commande des actions rapides du service d'intelligence artificielle, voir Interface de ligne de commande des actions rapides du service d'intelligence artificielle.
Cette tâche ne peut pas être effectuée à l'aide de l'API.
Appeler un déploiement de modèle dans des actions rapides du service d'intelligence artificielle
Vous pouvez appeler le déploiement de modèle dans les actions rapides du service d'intelligence artificielle à partir de l'interface de ligne de commande ou de la trousse SDK Python.
Pour plus d'informations, voir la section sur les conseils de déploiement de modèle dans GitHub.
Artefacts de modèle
Où trouver les artefacts de modèle.
Lorsqu'un modèle est téléchargé dans une instance de déploiement de modèle, il est téléchargé dans le dossier /opt/ds/model/deployed_model/<object_storage_folder_name_and_path>
.