Importando com oMySQL Shell

Use o MySQL Shell na instância de computação do Oracle Cloud Infrastructure para importar dados para um sistema de BD do Serviço HeatWave.

Observação

Para importação mais rápida para um sistema de banco de dados independente, desative a recuperação de pane ou use o recurso de importação de dados. Consulte Ativando ou Desativando a Recuperação de Pane e Importando com o Recurso de Importação de Dados.
Esta tarefa requer o seguinte:
  • Acesso SSH para uma instância de computação com acesso ao sistema de banco de dados MySQL, permitindo que você execute o MySQL Shell na instância de computação. Consulte Rede.
  • MySQL Shell 8.0.27 ou mais recente.
  • Um arquivo de configuração válido se os arquivos de dump forem armazenados em um bucket do Object Storage. Se tiver instalado e configurado a CLI no local padrão, você terá um arquivo de configuração válido. Se você não tiver instalado e configurado a CLI, deverá instalá-la ou criar um arquivo de configuração manualmente. Consulte Arquivo de Configuração da CLI e do SDK.
  • Armazenamento suficiente para acomodar dados importados e largura de banda de rede suficiente para a importação.
Faça o seguinte para importar dados para um sistema de banco de dados MySQL:
  1. Execute o MySQL Shell na instância de computação do Oracle Cloud Infrastructure.
  2. Alterne para o tipo de entrada JavaScript, digitando \js e pressionando Enter.
  3. Execute o seguinte comando para iniciar uma sessão global conectando-se ao ponto final do sistema de banco de dados:
    \c <UserName>@<DBSystemEndpointIPAddress>
    • \c: Especifica o comando Shell para estabelecer uma nova conexão.
    • <UserName>: Especifica o nome do usuário do Sistema de Banco de Dados.
    • <DBSystemEndpointIPAddress>: Especifica o endereço IP do ponto final do sistema de banco de dados.
  4. Se você estiver importando um dump localizado no sistema de arquivos local da instância de computação do Oracle Cloud Infrastructure, execute o seguinte comando para importar dados para o sistema de BD do Serviço HeatWave:
    util.loadDump("<URL>", {waitDumpTimeout: <TimeinSeconds> , updateGtidSet: "append" })
    • util.loadDump: Especifica o comando para importar dados para o sistema do banco de dados.
    • <URL>: Especifica o caminho para um diretório local que contém os arquivos de dump. Por exemplo, /home/opc/dump.
    • waitDumpTimeout: (Opcional) Permite aplicar um dump que ainda está em processo de criação. As tabelas são carregadas à medida que ficam disponíveis, e o utilitário aguarda o número especificado de segundos após a chegada de novos dados no local de dump. Quando o tempo limite expira, o utilitário aborta a importação.
    • updateGtidSet:"append": (Opcional) Adiciona os IDs de transação do conjunto GTID gtid_executed registrado nos metadados de dump ao conjunto GTID gtid_purged do sistema de BD. Isso configura o GTID definido no sistema de banco de dados para ativar a replicação de entrada da instância MySQL da qual os arquivos de dump são exportados.
  5. Se você estiver importando um dump de um bucket do Oracle Cloud Infrastructure Object Storage, execute o seguinte comando para importar dados para o sistema de BD do Serviço HeatWave:
    util.loadDump("<URL>", {threads: <Number>, osBucketName: "<MDSBucket>", waitDumpTimeout: <TimeinSeconds> , updateGtidSet: "append" })
    • util.loadDump: Especifica o comando para importar dados para o sistema do banco de dados.
    • <URL>: Especifica o prefixo de caminho que os arquivos de dump têm no bucket, que foi designado usando o parâmetro outputUrl quando o dump foi criado.
    • threads: (Opcional) Especifica o número de threads paralelos a serem usados para fazer upload de blocos de dados para o sistema de banco de dados. O valor padrão é 4.
    • osBucketName: Especifica o nome do bucket do serviço Object Storage.
    • waitDumpTimeout: (Opcional) Permite aplicar um dump que ainda está em processo de criação. As tabelas são carregadas à medida que ficam disponíveis, e o utilitário aguarda o número especificado de segundos após a chegada de novos dados no local de dump. Quando o tempo limite expira, o utilitário aborta a importação.
    • updateGtidSet:"append": (Opcional) Adiciona os IDs de transação do conjunto GTID gtid_executed registrado nos metadados de dump ao conjunto GTID gtid_purged do sistema de BD. Isso configura o GTID definido no sistema de banco de dados para ativar a replicação de entrada da instância MySQL da qual os arquivos de dump são exportados.
  6. (Opcional) Se você não tiver especificado a opção updateGtidSet:"append" no comando util.loadDump, poderá executar o seguinte para atualizar o conjunto de GTID gtid_purged do sistema de BD:
    1. Recupere o valor de gtid_executed do arquivo de dump @.json.
    1. Conecte-se ao sistema de BD e adicione o GTID definido como gtid_purged usando o seguinte comando:
      CALL sys.SET_GTID_PURGED("+<gtidSet>")
      Esse comando executa um procedimento armazenado no sistema de banco de dados para alterar o valor da variável do sistema.
      • <gtidSet> é o valor do campo gtidExecuted no arquivo de dump @.json.
      • O sinal + anexa o GTID definido à variável de sistema gtid_purged do sistema de BD.
Os dados são importados para o sistema de banco de dados.

Tópicos Relacionados