FAQ sur l'IA générative d'Oracle Analytics

Cette rubrique apporte des réponses aux questions fréquemment posées sur l'utilisation de l'IA générative avec Oracle Analytics.

L'IA générative d'Oracle Analytics utilise-t-elle plusieurs modèles ou un système de modèles interdépendants ?

Oracle Analytics n'implémente pas de modèles d'IA générative chaînés ou interdépendants. Chaque modèle fonctionne comme un composant indépendant, ce qui simplifie l'évaluation des performances, les contrôles d'accès et les processus de gestion des risques. Oracle évalue en permanence quels modèles et architectures conviennent le mieux pour un large éventail de cas d'emploi d'analyse, et peut mettre à jour ses modèles et architectures préférés ou en changer au fil du temps.

A quelle catégorie les modèles utilisés dans le produit appartiennent-ils ? Le modèle est-il développé en interne ou par un tiers ?

Les fonctionnalités d'IA générative d'Oracle Analytics tirent parti des modèles de base de fournisseurs d'IA établis qui sont configurés pour les déploiements en entreprise. Pour obtenir la liste en cours de nos modèles d'IA générative, reportez-vous à Modèles d'intelligence artificielle générative préentraînés.

Le modèle est-il surveillé et testé en continu ? A quelle fréquence ?

Les modèles sont revalidés à chaque nouvelle version et les problèmes de performances sont traités à mesure qu'ils sont identifiés. Au cours du développement, Oracle utilise des mesures d'apprentissage automatique standard, notamment la précision, le rappel et les scores F1, pour valider les modèles d'IA avant le déploiement. Oracle Analytics utilise pour l'évaluation de modèle des données synthétiques qu'il combine à un ensemble de données organisées manuellement. L'évaluation de modèle se concentre sur l'exactitude et la dérive, et détermine la capacité du modèle à générer des réponses qui correspondent à la vérité terrain établie. Les résultats sont comparés aux références établies pour identifier les non-correspondances (variations qui fonctionnaient précédemment et qui échouent maintenant) et les correspondances (variations qui échouaient précédemment et qui fonctionnent maintenant). Toute non-correspondance est classée comme une régression et sert de point de contrôle pour les modifications de code, révisions de modèle ou modifications de déploiement.

Oracle dispose-t-il de processus pour communiquer les modifications apportées aux modèles et à la sortie ?

Dans le cadre du processus de publication d'Oracle Analytics, nous vous informons des modifications apportées aux modèles ou aux sorties d'IA via la page Web Nouveautés d'Oracle Analytics Cloud. Les administrateurs de location peuvent également activer des abonnements utilisateur, pour une meilleure sensibilisation au sein de l'organisation. En outre, tout le monde peut être informé des nouvelles fonctionnalités et des versions à venir en s'abonnant au courriel hebdomadaire Oracle Analytics via le site de la communauté Oracle Analytics.

Oracle Analytics utilise également les stratégies de gestion des modifications Oracle Cloud standard, documentées dans Conditions Générales de Livraison et d'Hébergement du Cloud Oracle.

La stratégie d'IA d'Oracle inclut-elle un processus de vérification des fonctions juridiques et de risque ?

Les équipes de développement produit au sein d'Oracle suivent les conseils et les directives obligatoires de la Sécurité globale des produits, qui répondent aux normes Oracle SCS (Secure Coding Standards). Une partie de ces normes est consacrée à l'intelligence artificielle/apprentissage automatique, qui font eux-mêmes l'objet d'un certain nombre de directives de sécurité. Ces directives sont réparties dans les catégories suivantes :

  • Gouvernance de l'IA : les directives couvrent les étapes à suivre par les équipes afin de garantir des procédures de surveillance appropriées pour les modèles d'apprentissage automatique.
  • Infrastructure de l'IA : les directives s'appliquent aux équipes qui configurent et utilisent l'infrastructure nécessaire à la création et au déploiement de modèles d'apprentissage automatique.
  • Développement de l'IA : les directives s'appliquent aux équipes impliquées dans le développement de modèles d'apprentissage automatique, fournissant des conseils sur les meilleures pratiques de développement, de test et de déploiement de modèles.
  • Données de l'IA : les directives couvrent les étapes de sécurité pour les équipes impliquées dans la collecte, le traitement et la gestion des données utilisées dans les modèles d'apprentissage automatique.

Dans le cadre des normes SCS définies ci-dessus, les équipes de développement produit d'Oracle évaluent régulièrement leurs projets pour détecter les risques et les vulnérabilités de sécurité propres à l'IA.

La sécurité du modèle, l'architecture d'IA Oracle Analytics et l'intégration à Oracle Analytics ont fait l'objet d'un examen de sécurité CSSAP (Cloud Security, Standards, and Architecture Program). CSSAP est un processus complet d'examen de la sécurité développé par les équipes Architecture de sécurité d'entreprise, Sécurité globale de l'information, Sécurité globale des produits et Oracle Global IT ainsi que les organisations informatiques d'Oracle pour fournir une évaluation approfondie de la gestion de la sécurité des informations. Pour plus d'informations, reportez-vous à Surveillance de l'architecture de sécurité d'entreprise.

Oracle collecte-t-il des données utilisateur ou des mesures similaires pour mesurer les différences des données d'entrée et de sortie dans le contexte des environnements de test ?

Actuellement, Oracle Analytics ne capture et ne collecte pas de commentaires explicites des utilisateurs à cette fin. Comme le modèle n'est ni optimisé ni entraîné avec des données client, les tests se limitent aux références de modèle par défaut, comme indiqué précédemment. En résumé, les modèles sont revalidés à chaque nouvelle version et les problèmes de performances identifiés traités comme il convient. Au cours du développement, Oracle applique des mesures d'apprentissage automatique standard, comme la précision, le rappel et les scores F1, pour valider les modèles d'IA avant le déploiement.

Oracle intègre-t-il des entrées externes ou des outils tiers à son modèle ?

Oracle Analytics n'intègre aucune entrée externe dans ses interactions avec le modèle. Les interactions de modèle sont strictement limitées à la communication directe entre Oracle Analytics et le modèle lui-même.

Le modèle dépend-il de solutions ou d'outils tiers qui pourraient rendre difficile sa migration vers un autre environnement ?

Le modèle est déployé en tant que service Oracle Cloud Infrastructure, avec le modèle de base disponible sur plusieurs instances de service. Aucune migration de modèle n'est requise entre les instances.

Comment Oracle répond-il aux incidents du système d'IA ?

Oracle Analytics utilise les stratégies standard de réponse aux incidents Oracle Cloud documentées dans la section Contrat de niveau de service de Conditions Générales de Livraison et d'Hébergement du Cloud Oracle.

Comment Oracle teste-t-il la qualité des explications des systèmes ?

Oracle Analytics soumet toutes les modifications de code, révisions de modèle et modifications de déploiement à un point de contrôle de version qui inclut une évaluation des réponses générées correspondant à la vérité terrain établie dans le cadre de notre référence d'évaluation. La vérité terrain de la référence inclut toutes les explications des systèmes générées dans le cadre de la réponse. Toute non-correspondance est classée comme une régression et sert de point de contrôle.

Comment Oracle évalue-t-il la fiabilité et l'équité des sorties du système ?

Oracle Analytics s'appuie sur l'infrastructure d'OCI Generative AI pour ses modèles de base et n'entraîne pas explicitement les modèles. OCI Generative AI utilise des meilleures pratiques pour garantir la fiabilité des modèles de base et prévenir les biais.

En outre, Oracle Analytics offre actuellement un contrôle grossier de la contribution du grand modèle de langage (LLM) à la réponse présentée aux utilisateurs finals. Grâce à ce mécanisme, le grand modèle de langage n'affiche pas directement les informations aux utilisateurs finals, ce qui garantit que les réponses générées sont entièrement produites par Oracle Analytics et donc fiables. L'administrateur de service Oracle Analytics peut par ailleurs désactiver toutes les fonctionnalités reposant sur l'IA au niveau de chacune. Pour plus d'informations, reportez-vous à A propos de la configuration de l'IA générative.

Existe-t-il un plan de récupération après sinistre et de secours pour les instances si le modèle n'est pas disponible ?

Oracle Analytics s'appuie sur l'infrastructure d'OCI Generative AI pour ses modèles de base. La résilience et la tolérance aux pannes de l'infrastructure OCI sont documentées dans Conditions Générales de Livraison et d'Hébergement du Cloud Oracle. Vous trouverez plus de détails sur les clusters dédiés OCI Generative AI dans Création d'un cluster d'IA dédié dans Generative AI pour héberger des modèles et dans le document Oracle PaaS and IaaS Public Cloud Services Pillar Document.

Comment Oracle teste-t-il la cohérence du modèle dans les différents environnements ?

Tous les modèles de client et de développement sont déployés sur la même structure Oracle Cloud Infrastructure. Les environnements de test internes, y compris ceux de préproduction et de production, présentent le même état de configuration que les environnements des clients.

Oracle dispose-t-il d'une stratégie de gouvernance établie pour le modèle ?

Oracle Analytics tire parti des modèles de base déployés via le service d'IA générative d'Oracle Cloud Infrastructure. Ces modèles sont utilisés dans leur état natif sans modification : Oracle Analytics n'entraîne pas, n'affine pas et ne personnalise pas les modèles de base sous-jacents. En conséquence, les stratégies de gouvernance de modèle utilisées par l'infrastructure OCI Generative AI sont également applicables à Oracle Analytics.

Oracle dispose-t-il de stratégies et de procédures établies qui définissent les rôles et les responsabilités en matière de surveillance humaine des modèles déployés ?

Oracle Analytics dispose d'un processus robuste d'évaluation de modèle utilisant des données synthétiques, qui sert de point de contrôle pour les modifications de code, révisions de modèle ou modifications de déploiement. Les exécutions d'évaluation de modèle sont évaluées par des processus automatisés combinés à une surveillance humaine. Oracle Analytics n'exerce ensuite pas de surveillance humaine des modèles déployés.