Configurazione dello storage degli oggetti con Sqoop

Stabilisci la connettività di storage degli oggetti con Sqoop.

Nota

È possibile utilizzare i nodi cluster di Big Data Service per la configurazione del servizio e gli esempi in esecuzione. Per utilizzare un nodo Edge, è necessario creare e collegarsi al nodo Edge.
  1. (Facoltativo) Per utilizzare un nodo Edge per l'impostazione dello storage degli oggetti, creare prima un nodo Edge, quindi collegarsi al nodo. Quindi, copiare la chiave API dal nodo un0 al nodo Edge.
    sudo dcli rsync -a <un0-hostname>:/opt/oracle/bds/.oci_oos/ 
    /opt/oracle/bds/.oci_oos/
  2. Creare un utente con autorizzazioni sufficienti e un file JCEKS con il valore di passphrase richiesto. Se si sta creando un file JCEKS locale, copiare il file in tutti i nodi e modificare le autorizzazioni utente.
    sudo dcli -f <location_of_jceks_file> -d <location_of_jceks_file>
    sudo dcli chown <user>:<group> <location_of_jceks_file>
  3. Aggiungere una delle seguenti combinazioni HADOOP_OPTS al profilo bash utente.
    Opzione 1:
    export HADOOP_OPTS="$HADOOP_OPTS -DOCI_SECRET_API_KEY_ALIAS=<api_key_alias> 
    -DBDS_OSS_CLIENT_REGION=<api_key_region> 
    -DOCI_SECRET_API_KEY_PASSPHRASE=<jceks_file_provider>"

    Opzione 2:

    export HADOOP_OPTS="$HADOOP_OPTS -DBDS_OSS_CLIENT_AUTH_FINGERPRINT=<api_key_fingerprint> 
    -DBDS_OSS_CLIENT_AUTH_PASSPHRASE=<jceks_file_provider> -DBDS_OSS_CLIENT_AUTH_PEMFILEPATH=<api_key_pem_file_path> 
    -DBDS_OSS_CLIENT_AUTH_TENANTID=<api_key_tenant_id> -DBDS_OSS_CLIENT_AUTH_USERID=<api_key_user_id> 
    -DBDS_OSS_CLIENT_REGION=<api_key_region>"
  4. (Facoltativo) Eseguire l'esempio seguente per vedere come utilizzare Sqoop.
    sqoop import -Dmapreduce.job.user.classpath.first=false -Dorg.apache.sqoop.splitter.allow_text_splitter=true 
    -Dfs.oci.client.auth.fingerprint=<api_key_fingerprint> -Dfs.oci.client.auth.passphrase=<jceks-provider> 
    -Dfs.oci.client.auth.pemfilepath=<api_key_pem_file_path> -Dfs.oci.client.auth.tenantId=<api_key_tenant_info> 
    -Dfs.oci.client.auth.userId=<api_key_user_info> -Dfs.oci.client.regionCodeOrId=<api_key_region_code_info> 
    --connect jdbc:mysql://<un0_hostname>/hive --username <username> --password <example-password> --table AUX_TABLE 
    --hive-import --hive-database default --create-hive-table --hive-table <hive_table_name> --target-dir 
    <object_storage_output_location> --as-parquetfile --validate