Importazione mediante la shell MySQL

Utilizzare MySQL Shell nell'istanza di computazione Oracle Cloud Infrastructure per importare i dati in un sistema DB del servizio HeatWave.

Nota

Per un'importazione più rapida in un sistema DB standalone, disabilitare il recupero da crash o utilizzare la funzione di importazione dei dati. Vedere Abilitazione o disabilitazione del recupero da crash e Importazione mediante la funzione di importazione dei dati.
Questa attività richiede quanto segue:
  • Accesso SSH a un'istanza di computazione con accesso al sistema DB MySQL che consente di eseguire la shell MySQL nell'istanza di computazione. Vedere Networking.
  • MySQL Shell 8.0.27 o successiva.
  • File di configurazione valido se i file di dump vengono memorizzati in un bucket di storage degli oggetti. Se la CLI è stata installata e configurata nella posizione predefinita, si dispone di un file di configurazione valido. Se l'interfaccia CLI non è stata installata e non è stata configurata, è necessario installarla o creare un file di configurazione manualmente. Vedere SDK and CLI Configuration File.
  • Memoria sufficiente per accogliere i dati importati e larghezza di banda di rete sufficiente per l'importazione.
Per importare i dati in un sistema DB MySQL, effettuare le operazioni riportate di seguito.
  1. Eseguire MySQL Shell nell'istanza di computazione Oracle Cloud Infrastructure.
  2. Passare al tipo di input JavaScript, digitando \js e premendo Invio.
  3. Eseguire il comando riportato di seguito per avviare una sessione globale effettuando la connessione all'endpoint del sistema DB.
    \c <UserName>@<DBSystemEndpointIPAddress>
    • \c: specifica il comando Shell per stabilire una nuova connessione.
    • <UserName>: specifica il nome utente per il sistema DB.
    • <DBSystemEndpointIPAddress>: specifica l'indirizzo IP dell'endpoint del sistema DB.
  4. Se si sta importando un dump che si trova nel file system locale dell'istanza di computazione Oracle Cloud Infrastructure, eseguire il comando riportato di seguito per importare i dati nel sistema DB del servizio HeatWave.
    util.loadDump("<URL>", {waitDumpTimeout: <TimeinSeconds> , updateGtidSet: "append" })
    • util.loadDump: specifica il comando per importare i dati nel sistema DB.
    • <URL>: specifica il percorso di una directory locale contenente i file di dump. Ad esempio, /home/opc/dump.
    • waitDumpTimeout: (facoltativo) consente di applicare un dump ancora in fase di creazione. Le tabelle vengono caricate non appena diventano disponibili e la utility attende il numero di secondi specificato dopo l'arresto dei nuovi dati nella posizione di dump. Una volta trascorso il timeout, la utility interrompe l'importazione.
    • updateGtidSet:"append": (facoltativo) aggiunge gli ID transazione dal set gtid_executed GTID registrato nei metadati di dump al set gtid_purged GTID del sistema DB. Questa operazione configura il set GTID nel sistema DB per l'abilitazione della replica in entrata dall'istanza MySQL dalla quale vengono esportati i file di dump.
  5. Se si sta importando un dump da un bucket di Oracle Cloud Infrastructure Object Storage, eseguire il comando riportato di seguito per importare i dati nel sistema DB del servizio HeatWave.
    util.loadDump("<URL>", {threads: <Number>, osBucketName: "<MDSBucket>", waitDumpTimeout: <TimeinSeconds> , updateGtidSet: "append" })
    • util.loadDump: specifica il comando per importare i dati nel sistema DB.
    • <URL>: specifica il prefisso di percorso dei file di dump nel bucket, assegnato mediante il parametro outputUrl al momento della creazione del dump.
    • threads: (facoltativo) specifica il numero di thread paralleli da utilizzare per caricare chunk di dati nel sistema DB. Il valore predefinito è 4.
    • osBucketName: specifica il nome del bucket di storage degli oggetti.
    • waitDumpTimeout: (facoltativo) consente di applicare un dump ancora in fase di creazione. Le tabelle vengono caricate non appena diventano disponibili e la utility attende il numero di secondi specificato dopo l'arresto dei nuovi dati nella posizione di dump. Una volta trascorso il timeout, la utility interrompe l'importazione.
    • updateGtidSet:"append": (facoltativo) aggiunge gli ID transazione dal set gtid_executed GTID registrato nei metadati di dump al set gtid_purged GTID del sistema DB. Questa operazione configura il set GTID nel sistema DB per l'abilitazione della replica in entrata dall'istanza MySQL dalla quale vengono esportati i file di dump.
  6. (Facoltativo) Se l'opzione updateGtidSet:"append" non è stata specificata nel comando util.loadDump, è possibile eseguire le operazioni riportate di seguito per aggiornare il set gtid_purged GTID del sistema DB.
    1. Recuperare il valore di gtid_executed dal file di dump @.json.
    1. Connettersi al sistema DB e aggiungere il GTID impostato a gtid_purged utilizzando il comando seguente:
      CALL sys.SET_GTID_PURGED("+<gtidSet>")
      Questo comando esegue una stored procedure nel sistema DB per modificare il valore della variabile di sistema.
      • <gtidSet> è il valore del campo gtidExecuted nel file di dump @.json.
      • Il segno + aggiunge il GTID impostato alla variabile di sistema gtid_purged del sistema DB.
I dati vengono importati nel sistema DB.

Argomenti correlati