Prise en charge d'Object Storage Hadoop

Découvrez comment utiliser le connecteur HDFS pour exécuter des travaux Hadoop ou Spark sur des données d'Object Storage.

Le connecteur HDFS permet d'exécuter des travaux Hadoop ou Spark sur des données du service Oracle Cloud Infrastructure Object Storage. Le connecteur offre les fonctionnalités suivantes :

  • Prise en charge de la lecture et de l'écriture des données stockées dans Object Storage
  • Compatibilité avec les buckets de données existants
  • Compatibilité avec Hadoop 2.7.2

Pour plus d'informations sur le téléchargement, la configuration et l'utilisation du connecteur HDFS, reportez-vous à Connecteur HDFS pour Object Storage.