Avant de commencer à utiliser les points d'extrémité SQL du service de flux de données
Pour utiliser des points d'extrémité SQL du service de flux de données, vous devez disposer des éléments suivants :
- Un compte Oracle Cloud Infrastructure. Les comptes d'essai peuvent être utilisés pour afficher le service de flux de données.
- Le rôle d'administrateur de service pour les services Oracle Cloud. Lorsque le service est activé, les données d'identification et l'URL sont envoyées à l'administrateur de compte sélectionné. L'administrateur de compte crée un compte pour chaque utilisateur qui a besoin d'accéder au service.
- Un navigateur pris en charge, comme :
-
Microsoft Internet Explorer 11.x ou version ultérieure
-
Mozilla Firefox ESR 38 ou version ultérieure
-
Google Chrome 42 ou version supérieure
Note
Pour l'interface utilisateur Spark, utilisez uniquement Google Chrome. -
-
Données pour traitement chargées dans le stockage d'objets. Les données peuvent être lues à partir de sources de données externes ou de services en nuage. Les points d'extrémité SQL du service de flux de données optimisent les performances et la sécurité des données stockées dans le service de stockage d'objets.
Évitez d'entrer des informations confidentielles lorsque vous affectez des descriptions, des marqueurs ou des noms conviviaux aux ressources en nuage au moyen de la console, de l'API ou de l'interface de ligne de commande d'Oracle Cloud Infrastructure. Il s'applique lors de la création ou de la modification d'applications dans le service de flux de données.
Présentation des points d'extrémité SQL
Le point d'extrémité SQL du service de flux de données est une entité de service qui utilise des grappes de calcul de longue durée dans votre location. Vous choisissez une forme de calcul et le nombre d'instances à utiliser. Chaque cluster s'exécute jusqu'à ce qu'un administrateur l'arrête. Spark s'exécute dans la grappe. Son moteur SQL est rapide, s'intègre au service de flux de données et prend en charge les données non structurées. Vous vous connectez à l'aide d'ODBC ou JDBC, authentifiez-vous à l'aide des données d'identification IAM.
Qu'est-ce que les points d'extrémité SQL du service de flux de données
Les points d'extrémité SQL du service de flux de données sont conçus pour les développeurs, les experts en science des données et les analystes avancés qui souhaitent interroger des données de manière interactive directement là où elles se trouvent dans le lac de données. Ces données sont relationnelles, semi-structurées et non structurées, comme les journaux, les flux de capteurs et les flux vidéo généralement stockés dans le magasin d'objets. Au fur et à mesure que le volume et la complexité des données augmentent, les outils pour explorer et analyser les données dans le lac de données dans des formats natifs, plutôt que de les transformer ou de les déplacer, deviennent importants. À l'aide des points d'extrémité SQL du service de flux de données, vous pouvez traiter économiquement de grandes quantités de données brutes, avec la sécurité native en nuage utilisée pour contrôler l'accès. Vous pouvez accéder aux informations dont ils ont besoin en libre-service, sans avoir à coordonner des projets informatiques complexes ni à vous soucier des données obsolètes. Les interrogations dans les points d'extrémité SQL du service de flux de données interagissent de façon transparente avec le lot de flux de données pour les pipelines de production programmés. Ils permettent une analyse rapide des données et utilisent des grappes de calcul à mise à l'échelle automatique de longue durée qui ont une taille fixe et qui sont exécutées jusqu'à ce que l'administrateur les arrête.
- Fournir des analyses interactives directement sur le lac de données.
- Elles sont conçues sur Spark pour l'évolutivité horizontale, la lecture et l'écriture faciles des données non structurées et l'interopérabilité avec le service de flux de données existant.
- Utilise SQL pour faciliter les analyses.
- Prendre en charge les principaux outils Business Intelligence (BI) à l'aide de connexions ODBC ou JDBC avec des données d'identification IAM.
-
Utiliser les données pour le traitement chargées dans le stockage d'objets. Les données peuvent être lues à partir de sources de données externes ou de services en nuage.
Les points d'extrémité SQL du service de flux de données prennent en charge tous les mêmes types de fichier pris en charge par Spark. Par exemple, JSON, Parquet, CSV et Avro.