Configurazione dello storage degli oggetti con Sqoop
Stabilisci la connettività di storage degli oggetti con Sqoop.
Nota
È possibile utilizzare i nodi cluster di Big Data Service per la configurazione del servizio e gli esempi in esecuzione. Per utilizzare un nodo Edge, è necessario creare e collegarsi al nodo Edge.
È possibile utilizzare i nodi cluster di Big Data Service per la configurazione del servizio e gli esempi in esecuzione. Per utilizzare un nodo Edge, è necessario creare e collegarsi al nodo Edge.
- (Facoltativo) Per utilizzare un nodo Edge per l'impostazione dello storage degli oggetti, creare prima un nodo Edge, quindi collegarsi al nodo. Quindi, copiare la chiave API dal nodo un0 al nodo Edge.
sudo dcli rsync -a <un0-hostname>:/opt/oracle/bds/.oci_oos/ /opt/oracle/bds/.oci_oos/ -
Creare un utente con autorizzazioni sufficienti e un file JCEKS con il valore di passphrase richiesto. Se si sta creando un file JCEKS locale, copiare il file in tutti i nodi e modificare le autorizzazioni utente.
sudo dcli -f <location_of_jceks_file> -d <location_of_jceks_file> sudo dcli chown <user>:<group> <location_of_jceks_file> -
Aggiungere una delle seguenti combinazioni
HADOOP_OPTSal profilo bash utente.Opzione 1:export HADOOP_OPTS="$HADOOP_OPTS -DOCI_SECRET_API_KEY_ALIAS=<api_key_alias> -DBDS_OSS_CLIENT_REGION=<api_key_region> -DOCI_SECRET_API_KEY_PASSPHRASE=<jceks_file_provider>"Opzione 2:
export HADOOP_OPTS="$HADOOP_OPTS -DBDS_OSS_CLIENT_AUTH_FINGERPRINT=<api_key_fingerprint> -DBDS_OSS_CLIENT_AUTH_PASSPHRASE=<jceks_file_provider> -DBDS_OSS_CLIENT_AUTH_PEMFILEPATH=<api_key_pem_file_path> -DBDS_OSS_CLIENT_AUTH_TENANTID=<api_key_tenant_id> -DBDS_OSS_CLIENT_AUTH_USERID=<api_key_user_id> -DBDS_OSS_CLIENT_REGION=<api_key_region>" - (Facoltativo) Eseguire l'esempio seguente per vedere come utilizzare Sqoop.
sqoop import -Dmapreduce.job.user.classpath.first=false -Dorg.apache.sqoop.splitter.allow_text_splitter=true -Dfs.oci.client.auth.fingerprint=<api_key_fingerprint> -Dfs.oci.client.auth.passphrase=<jceks-provider> -Dfs.oci.client.auth.pemfilepath=<api_key_pem_file_path> -Dfs.oci.client.auth.tenantId=<api_key_tenant_info> -Dfs.oci.client.auth.userId=<api_key_user_info> -Dfs.oci.client.regionCodeOrId=<api_key_region_code_info> --connect jdbc:mysql://<un0_hostname>/hive --username <username> --password <example-password> --table AUX_TABLE --hive-import --hive-database default --create-hive-table --hive-table <hive_table_name> --target-dir <object_storage_output_location> --as-parquetfile --validate