Importando com o Shell MySQL

Use o Shell MySQL na instância de computação do Oracle Cloud Infrastructure para importar dados para um sistema de banco de dados do HeatWave Service.

Observação

Para uma importação mais rápida para um sistema de banco de dados independente, desative a recuperação de pane ou use o recurso de importação de dados. Consulte Ativando ou Desativando a Recuperação de Pane e Importando com o Recurso de Importação de Dados.
Esta tarefa requer o seguinte:
  • Acesso SSH para uma instância de computação com acesso ao sistema de banco de dados MySQL, permitindo que você execute o MySQL Shell na instância de computação. Consulte Networking.
  • MySQL Shell 8.0.27 ou mais recente.
  • Um arquivo de configuração válido se os arquivos de dump estiverem armazenados em um bucket do Object Storage. Se tiver instalado e configurado a CLI no local padrão, você terá um arquivo de configuração válido. Se você não tiver instalado e configurado a CLI, deverá instalá-la ou criar um arquivo de configuração manualmente. Consulte Arquivo de Configuração da CLI e do SDK.
  • Armazenamento suficiente para acomodar dados importados e largura de banda de rede suficiente para a importação.
Faça o seguinte para importar dados para um sistema de banco de dados MySQL:
  1. Execute o MySQL Shell na instância de computação do Oracle Cloud Infrastructure.
  2. Alterne para o tipo de entrada JavaScript, digitando \js e pressionando Enter.
  3. Execute o seguinte comando para iniciar uma sessão global conectando-se ao ponto final do sistema de banco de dados:
    \c <UserName>@<DBSystemEndpointIPAddress>
    • \c: Especifica o comando Shell para estabelecer uma nova conexão.
    • <UserName>: Especifica o nome do usuário do Sistema de Banco de Dados.
    • <DBSystemEndpointIPAddress>: Especifica o endereço IP do ponto final do sistema de banco de dados.
  4. Se você estiver importando um dump localizado no sistema de arquivos local da instância de computação do Oracle Cloud Infrastructure, execute o seguinte comando para importar dados para o sistema de banco de dados do Serviço HeatWave:
    util.loadDump("<URL>", {waitDumpTimeout: <TimeinSeconds> , updateGtidSet: "append" })
    • util.loadDump: Especifica o comando para importar dados para o sistema de banco de dados.
    • <URL>: Especifica o caminho para um diretório local que contém os arquivos de dump. Por exemplo, /home/opc/dump.
    • waitDumpTimeout: (Opcional) Permite aplicar um dump que ainda está no processo de criação. As tabelas são carregadas à medida que ficam disponíveis, e o utilitário aguarda o número especificado de segundos depois que novos dados param de chegar ao local de dump. Quando o timeout decorre, o utilitário anula a importação.
    • updateGtidSet:"append": (Opcional) Adiciona os IDs de transação do conjunto GTID gtid_executed registrado nos metadados de dump ao conjunto GTID gtid_purged do sistema de banco de dados. Isso configura o GTID definido no sistema de banco de dados para ativar a replicação de entrada da instância MySQL da qual os arquivos de dump são exportados.
  5. Se você estiver importando um dump de um bucket do Oracle Cloud Infrastructure Object Storage, execute o seguinte comando para importar dados para o sistema de banco de dados do HeatWave Service:
    util.loadDump("<URL>", {threads: <Number>, osBucketName: "<MDSBucket>", waitDumpTimeout: <TimeinSeconds> , updateGtidSet: "append" })
    • util.loadDump: Especifica o comando para importar dados para o sistema de banco de dados.
    • <URL>: Especifica o prefixo de caminho que os arquivos de dump têm no bucket, que foi designado usando o parâmetro outputUrl quando o dump foi criado.
    • threads: (Opcional) Especifica o número de threads paralelos a serem usados para fazer upload de partes de dados para o sistema de banco de dados. O valor padrão é 4.
    • osBucketName: Especifica o nome do bucket do serviço Object Storage.
    • waitDumpTimeout: (Opcional) Permite aplicar um dump que ainda está no processo de criação. As tabelas são carregadas à medida que ficam disponíveis, e o utilitário aguarda o número especificado de segundos depois que novos dados param de chegar ao local de dump. Quando o timeout decorre, o utilitário anula a importação.
    • updateGtidSet:"append": (Opcional) Adiciona os IDs de transação do conjunto GTID gtid_executed registrado nos metadados de dump ao conjunto GTID gtid_purged do sistema de banco de dados. Isso configura o GTID definido no sistema de banco de dados para ativar a replicação de entrada da instância MySQL da qual os arquivos de dump são exportados.
  6. (Opcional) Se você não especificou a opção updateGtidSet:"append" no comando util.loadDump, poderá executar o seguinte para atualizar o conjunto GTID gtid_purged do sistema de banco de dados:
    1. Recupere o valor de gtid_executed do arquivo de dump @.json.
    1. Conecte-se ao sistema de banco de dados e adicione o GTID definido como gtid_purged usando o seguinte comando:
      CALL sys.SET_GTID_PURGED("+<gtidSet>")
      Esse comando executa um procedimento armazenado no sistema de banco de dados para alterar o valor da variável do sistema.
      • <gtidSet> é o valor do campo gtidExecuted no arquivo de dump @.json.
      • O sinal + anexa o GTID definido à variável de sistema gtid_purged do sistema de BD.
Os dados são importados para o sistema de banco de dados.

Tópicos Relacionados