Note:
- Este tutorial requiere acceso a Oracle Cloud. Para registrarse para obtener una cuenta gratuita, consulte Introducción a la cuenta gratuita de Oracle Cloud Infrastructure.
- Utiliza valores de ejemplo para credenciales, arrendamiento y compartimentos de Oracle Cloud Infrastructure. Al finalizar la práctica, sustituya estos valores por otros específicos de su entorno en la nube.
Acceso a cubos de OCI Object Storage desde el cluster de Oracle Big Data Service mediante la entidad de recurso
Introducción
Oracle Big Data Service es un servicio basado en la nube proporcionado por Oracle que permite a los usuarios crear y gestionar clusters de Hadoop, clusters de Spark, Trino y otros servicios de big data. Oracle Cloud Infrastructure (OCI) permite una integración perfecta entre los clusters de Oracle Big Data Service y OCI Object Storage mediante la entidad de recurso.
Este tutorial le guiará a través de las tareas para configurar y acceder al cubo de OCI Object Storage desde un cluster de Oracle Big Data Service, aprovechando la entidad de recurso para la autenticación segura.
Objetivos
-
Configure Oracle Big Data Service para acceder a OCI Object Storage mediante la entidad de recurso.
-
Configurar políticas en OCI.
-
Pruebe el acceso al cubo desde el cluster de Oracle Big Data Service.
Requisitos
-
Se ha desplegado el cluster de Oracle Big Data Service.
-
Acceso a un arrendamiento de OCI.
-
Permisos para crear políticas en OCI.
Tarea 1: Crear políticas
-
Conéctese a la consola de OCI, vaya a Identity & Security y haga clic en Policies.
-
Cree las siguientes políticas para otorgar al cluster de Oracle Big Data Service acceso al cubo de OCI Object Storage.
allow any-user to read buckets in tenancy where ALL {request.principal.id='<BDS OCID>', target.bucket.name='<bucket name>'} allow any-user to read objects in tenancy where ALL {request.principal.id='<BDS OCID>', target.bucket.name='<bucket name>'}
Nota: Sustituya
<BDS OCID>
y<bucket name>
por el OCID de cluster de Oracle Big Data Service y el nombre de cubo, respectivamente.
Tarea 2: Creación de la entidad de recurso en el cluster de Oracle Big Data Service
-
Vaya a la consola de OCI, vaya a Analytics and AI y haga clic en Big data Service.
-
Haga clic en el cluster desplegado.
-
Haga clic en Resource Principal y Create Resource Principal.
-
Introduzca Nombre mostrado y Duración de período de vida del token de sesión (en horas) y haga clic en Crear.
Tarea 3: Actualización de la configuración del sistema de archivos distribuido (HDFS) de Hadoop
-
Vaya a la consola de Apache Ambari, vaya a HDFS, Configuraciones y Avanzado.
-
Actualice las siguientes propiedades para la configuración de HDFS.
fs.oci.client.custom.authenticator=com.oracle.oci.bds.commons.auth.BDSResourcePrincipalAuthenticator fs.oci.client.regionCodeOrId=us-region-1 fs.oci.rp.pem.passphrase.path=/etc/security/tokens/rpst.pass fs.oci.rp.pem.path=/etc/security/tokens/rpst.pem fs.oci.rp.rpst.path=/etc/security/tokens/rpst.token
Nota: El grupo
bds_rp_users
es propietario del tokenrpst
y las claves para esta entidad de recurso en el cluster. -
Guarde los cambios y reinicie los servicios necesarios en Apache Ambari.
Tarea 4: Definición de variables de entorno (opcional)
Para las aplicaciones que acceden al cubo mediante OCI Software Development Kit (SDK) u otros clientes, asegúrese de que se han definido las siguientes variables de entorno.
OCI_RESOURCE_PRINCIPAL_VERSION=2.2
OCI_RESOURCE_PRINCIPAL_PRIVATE_PEM=/etc/security/tokens/rpst.pem
OCI_RESOURCE_PRINCIPAL_REGION=us-region-1
OCI_RESOURCE_PRINCIPAL_RPST=/etc/security/tokens/rpst.token
Tarea 5: Probar el acceso al cubo de OCI Object Storage
Establezca una conexión SSH en el cluster de Oracle Big Data Service y pruebe el acceso al cubo con comandos HDFS.
hdfs dfs -ls oci://<bucket name>@<namespace>/
Nota: Asegúrese de sustituir
<bucket name>
por el cubo de OCI utilizado en las políticas y el valor<namespace>
.
Solución de problemas y consejos
-
Core-site.xml
Verificación: si no se puede acceder al contenido del cubo, compruebe si el archivocore-site.xml
fue generado correctamente por Apache Ambari y contiene los valores de configuración correctos de la entidad de recurso. -
Reinicio de HDFS: después de actualizar la configuración de HDFS, asegúrese de que se reinicien todos los servicios necesarios para aplicar los cambios.
-
Ámbito de política: vuelva a comprobar que las políticas se han definido y aplicado correctamente al cluster de Oracle Big Data Service.
Pasos Siguientes
-
Explore integraciones avanzadas de SDK de OCI para un acceso a datos más sofisticado.
-
Cargar y descargar datos mediante
DistCp
: después de configurar el acceso al cubo, puede utilizar el comandoDistCp
de Hadoop para transferir de forma eficaz grandes juegos de datos entre HDFS y OCI Object Storage. Esto resulta especialmente útil para la copia de seguridad, la migración o el movimiento de datos a gran escala. -
Programar transferencia de datos con Oozie: automatice el proceso de carga y descarga programando trabajos DistCp regulares con Oozie para copias de seguridad recurrentes o sincronización de datos.
Enlaces relacionados
-
Introducción a un cluster de Big Data de ODH altamente disponible
-
Kits de desarrollo de software e interfaz de línea de comandos de OCI
Agradecimientos
- Autores: Pavan Upadhyay (ingeniero principal de nube), Saket Bihari (ingeniero principal de nube)
Más recursos de aprendizaje
Explore otros laboratorios en docs.oracle.com/learn o acceda a más contenido de formación gratuita en el canal YouTube de Oracle Learning. Además, visita education.oracle.com/learning-explorer para convertirte en un Oracle Learning Explorer.
Para obtener documentación sobre el producto, visite Oracle Help Center.
Access OCI Object Storage Buckets from Oracle Big Data Service Cluster Using Resource Principal
G16222-01
September 2024