JavaScript is required to for searching.
Ignorar Links de Navegao
Sair do Modo de Exibio de Impresso
Guia de instalação do Oracle Solaris 10 1/13: Live Upgrade e planejamento da atualização     Oracle Solaris 10 1/13 Information Library (Português (Brasil))
search filter icon
search icon

Informação sobre o documento

Prefácio

Parte I Atualizando com o Live Upgrade

1.  Onde encontrar informações de planejamento da instalação Oracle Solaris

2.  Live Upgrade (visão geral)

3.  Live Upgrade (planejamento)

4.  Usando o Live Upgrade para criar um ambiente de inicialização (tarefas)

5.  Fazendo upgrade com o Live Upgrade (tarefas)

6.  Recuperação de falha: retrocesso para o ambiente de inicialização original (tarefas)

7.  Fazendo a manutenção de ambientes de inicialização do Live Upgrade (tarefas)

8.  Atualização do SO Oracle Solaris em um sistema com zonas não globais instaladas

9.  Exemplos do Live Upgrade

Parte II Atualizando e migrando com o Live Upgrade para um pool raiz ZFS

10.  Live Upgrade e ZFS (visão geral)

11.  Live Upgrade para ZFS (planejamento)

12.  Criando um ambiente de inicialização para pools raiz ZFS

13.  Live Upgrade para ZFS com zonas não globais instaladas

Criando um ambiente de inicialização ZFS em um sistema com zonas não globais instaladas (visão geral e planejamento)

Migrando de um sistema de arquivos raiz UFS (/) com zonas não globais instaladas no pool raiz ZFS (tarefas)

Como migrar de um sistema de arquivos UFS para um pool raiz ZFS em um sistema com zonas não globais

Parte III Apêndices

A.  Referência de comando do Live Upgrade

B.  Solução de problemas (tarefas)

C.  Requisitos de empacotamento SVR4 adicionais (referência)

D.  Utilizando o Patch Analyzer ao atualizar (tarefas)

Glossário

Índice

Migrando de um sistema de arquivos raiz UFS (/) com zonas não globais instaladas no pool raiz ZFS (tarefas)

Esta seção fornece instruções detalhadas sobre como migrar de um sistema de arquivos raiz UFS (/) para um pool raiz ZFS em um sistema com zonas não globais instaladas. Nenhuma zona não global está em um sistema de arquivos compartilhado no sistema de arquivos UFS.

Como migrar de um sistema de arquivos UFS para um pool raiz ZFS em um sistema com zonas não globais

O comando lucreate cria um ambiente de inicialização de um pool raiz ZFS a partir de um sistema de arquivos de raiz UFS (/). Um pool raiz ZFS deve existir antes da operação lucreate e deve ser criado com segmentos em vez dos discos inteiros a serem atualizados e inicializados. Este procedimento mostra como uma zona não global existente associada ao sistema de arquivos raiz UFS (/) é copiada para o novo ambiente de inicialização em um pool raiz ZFS.

  1. Complete as etapas a seguir na primeira vez que executar um Live Upgrade.

    Observação - Usar o Live Upgrade para criar novos ambientes de inicialização ZFS requer pelo menos que a versão Solaris 10 10/08 esteja instalada. As versões anteriores não possuem o ZFS e o software do Live Upgrade para executar as tarefas.


    1. Exclua os pacotes existentes do Live Upgrade de seu sistema, se necessário. Se estiver atualizando para uma nova versão, será necessário instalar os pacotes da nova versão.

      Os três pacotes Live Upgrade, SUNWluu, SUNWlur e SUNWlucfg, contêm o software necessário para atualizar utilizando o Live Upgrade. Esses pacotes incluem o software existente, novos recursos e correções de erros. Se não remover os pacotes existentes e instalar os novos pacotes em seu sistema antes de utilizar o Live Upgrade, a atualização para a versão de destino irá falhar.

      # pkgrm SUNWlucfg SUNWluu SUNWlur
    2. Instale os novos pacotes do Live Upgrade da versão para a qual está atualizando. Para obter instruções, consulte  Instalando o Live Upgrade.
    3. Antes de instalar ou executar o Live Upgrade, você será solicitado a instalar os patches a seguir. Esses patches garantem que você tenha as correções de bugs mais recentes e os novos recursos da versão.

      Verifique se você tem a lista de patches atualizada mais recente consultando My Oracle Support. Procure pelo documento da base de conhecimento 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844) no My Oracle Support.

      • Torne-se superusuário ou assuma uma função equivalente.


        Observação - Funções contêm autorizações e comandos privilegiados. Para obter mais informações sobre funções, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services.


      • Se estiver armazenando os patches em um disco local, crie um diretório tal como /var/tmp/lupatches e faça download dos patches para esse diretório.

      • Obtenha uma lista de patches no site do My Oracle Support.

      • Altere o diretório da correção.

        # cd /var/tmp/lupatches
      • Instale as correções com o comando patchadd.

        # patchadd patch_id

        patch_id é o número ou números dos patches. Separe vários nomes de patches com um espaço.


        Observação - Os patches precisam ser aplicados na ordem especificada no documento da base de conhecimento 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844) no My Oracle Support.


      • Reinicialize o sistema, se necessário. Alguns patches necessitam de uma reinicialização para se tornarem efetivos.

        Somente x86: é necessário reinicializar o sistema ou o Live Upgrade irá falhar.

        # init 6
  2. Crie um pool raiz ZFS.

    O pool raiz ZFS deve estar em um único segmento para ser inicializado e atualizado.

    # zpool create rpool c3t0d0s0

    Neste exemplo, o nome do novo ZFS a ser criado é rpool . O pool é criado em um segmento inicializável,c3t0d0s0.

    Para obter informações sobre como criar um novo pool raiz, consulte o Guia de administração do ZFS Oracle Solaris.

  3. Migre seu sistema de arquivos raiz USF (/) para o novo pool raiz ZFS.
    # lucreate [-c ufsBE] -n new-zfsBE -p rpool
    ufsBE

    O nome do ambiente de inicialização UFS atual. Esta opção não é necessária e é utilizada apenas quando o primeiro ambiente de inicialização é criado. Se executar o comando lucreate pela primeira vez e omitir a opção -c, o software cria um nome padrão por você.

    new-zfsBE

    O nome do ambiente de inicialização a ser criado. O nome deve ser único no sistema.

    -p rpool

    Coloque o recém-criado sistema de arquivos raiz ZFS (/) no pool raiz ZFS definido em rpool.

    Todas as zonas não globais e não compartilhadas são copiadas para o novo ambiente de inicialização junto com os sistemas críticos de arquivos. A criação do novo ambiente de inicialização ZFS pode levar algum tempo. Os dados do sistema de arquivos UFS estão sendo copiados para o pool raiz ZFS. Quando o ambiente de inicialização inativo foi criado, é possivel utilizar o comando luupgrade ou luactivate para atualizar ou ativar o novo ambiente de inicialização ZFS.

  4. (Opcional) Verifique se o ambiente de inicialização está concluído.

    O comando lustatus informa se a criação do ambiente de inicialização está completa e inicializável.

    # lustatus
    boot environment Is Active Active Can     Copy 
    Name Complete Now     OnReboot Delete     Status 
    ------------------------------------------------------------------------ 
    ufsBE yes yes yes no - 
    new-zfsBE yes no no yes -
  5. (Opcional) Verifique o conjunto de informações básicas sobre o sistema.

    O comando list exibe os nomes de todos os conjuntos de dados no sistema. Neste exemplo, rpool é o nome do pool ZFS e new-zfsBE é o nome do recém-criado ambiente de inicialização ZFS.

    # zfs list
    NAME             USED AVAIL REFER MOUNTPOINT
    rpool                 11.4G 2.95G 31K /rpool
    rpool/ROOT                 4.34G 2.95G 31K legacy
    rpool/ROOT/new-zfsBE                 4.34G 2.95G 4.34G /
    rpool/dump                 2.06G 5.02G 16K -
    rpool/swap                 5.04G 7.99G 16K -

    Os pontos de montagem listados para o novo ambiente de inicialização são temporários até que o comando luactivate seja executado. Os volumes /dump e /swap não são compartilhados com o ambiente original de inicialização UFS, mas são compartilhados no pool raiz ZFS e em ambientes de inicialização dentro do pool raiz.

Exemplo 13-1 Migrando de um sistema de arquivo raiz UFS (/) com zonas não globais instaladas no pool raiz ZFS

No exemplo a seguir, a zona não global existente, myzone, possui sua raiz de zona não global em um sistema de arquivos raiz UFS (/). A zona zzone tem sua raiz de zona em um sistema de arquivos ZFS no pool de armazenamento ZFS existente, pool. O Live Upgrade é utilizado para migrar o ambiente de inicialização UFS, c2t2d0s0, para um ambiente de inicialização ZFS, zfs2BE. A zona myzone baseada em UFS migra para um novo pool de armazenamento ZFS, mpool, que é criado antes da operação com o Live Upgrade. A zona não global baseada em ZFS, zzone, é clonada mas retida no pool ZFS pool e migrada para o novo ambiente de inicializaçãozfs2BE.

  1. Os comandos para criar o ambiente de inicialização são os seguintes:

    # zoneadm list -iv
     ID NAME STATUS PATH BRAND IP 
     0 global running / native shared
     - myzone installed /zones/myzone native shared
     - zzone installed /pool/zones native shared
    
    # zpool create mpool mirror c3t0d0s0 c4td0s0
    # lucreate -c c1t2d0s0 -n zfs2BE -p mpool
    Checking GRUB menu...
    Analyzing system configuration.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID.
    Creating configuration for boot environment <zfs2BE>.
    Source boot environment is <c1t2d0s0>.
    Creating file systems on boot environment <zfs2BE>.
    Creating <zfs> file system for </> in zone <global> on <mpool/ROOT/zfs2BE>.
    Populating file systems on boot environment <zfs2BE>.
    Analyzing zones.
    Mounting ABE <zfs2BE>.
    Generating file list.
    Copying data from PBE <c1t2d0s0> to ABE <zfs2BE>.
    100% of filenames transferred
    Finalizing ABE.
    Fixing zonepaths in ABE.
    Unmounting ABE <zfs2BE>.
    Fixing properties on ZFS datasets in ABE.
    Reverting state of zones in PBE <c1t2d0s0>.
    Making boot environment <zfs2BE> bootable.
    Updating bootenv.rc on ABE <zfs2BE>.
    Saving existing file </boot/grub/menu.lst> in top level dataset for BE <zfs2BE> as <mount-point>//boot/grub/menu.lst.prev.
    File </boot/grub/menu.lst> propagation successful
    Copied GRUB menu from PBE to ABE
    No entry for BE <zfs2BE> in GRUB menu
    Population of boot environment <zfs2BE> successful.
    Creation of boot environment <zfs2BE> successful.
  2. Quando a operação lucreate for concluída, utilize o comando lustatus para visualizar o status do ambiente de inicialização como nesse exemplo.

    # lustatus
    Boot Environment Is Active Active Can Copy 
    Name Complete Now On Reboot Delete Status 
    -------------------------- -------- ------ --------- ------ ----------
    c1t2d0s0 yes yes yes no - 
    zfsBE yes no no yes - 
    # zoneadm list -iv
     ID NAME STATUS PATH BRAND IP 
     0 global running / native shared
     - myzone installed /zones/myzone native shared
     - zzone installed /pool/zones native shared
  3. Em seguida, utilize o comandoluactivate para ativar o novo ambiente de inicialização ZFS. Por exemplo:

    # luactivate zfsBE
    A Live Upgrade Sync operation will be performed on startup of boot 
    environment <zfsBE>.
    
    
    **********************************************************************
    
    The target boot environment has been activated. It will be used when you
    reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You
    MUST USE either the init or the shutdown command when you reboot. If you
    do not use either init or shutdown, the system will not boot using the
    target BE.
    
    **********************************************************************
    
    In case of a failure while booting to the target BE, the following 
    process
    needs to be followed to fallback to the currently working boot 
    environment:
    
    1. Enter the PROM monitor (ok prompt).
    
    2. Boot the machine to Single User mode using a different boot device
    (like the Solaris Install CD or Network). Examples:
    
     At the PROM monitor (ok prompt):
     For boot to Solaris CD: boot cdrom -s
     For boot to network: boot net -s
    
    3. Mount the Current boot environment root slice to some directory (like
    /mnt). You can use the following command to mount:
    
     mount -Fufs /dev/dsk/c1t0d0s0 /mnt
    
    4. Run <luactivate> utility with out any arguments from the current boot
    environment root slice, as shown below:
    
     /mnt/sbin/luactivate
    
    5. luactivate, activates the previous working boot environment and
    indicates the result.
    
    6. Exit Single User mode and reboot the machine.
    
    **********************************************************************
    
    Modifying boot archive service
    Activation of boot environment <zfsBE> successful.
  4. Reinicialize o sistema para o ZFS BE.

    # init 6
    # svc.startd: The system is coming down. Please wait.
    svc.startd: 79 system services are now being stopped.
    .
    .
    .
  5. Confirme o novo ambiente de inicialização e o status das zonas migradas como neste exemplo.

    # lustatus
    Boot Environment Is Active Active Can Copy 
    Name Complete Now On Reboot Delete Status 
    -------------------------- -------- ------ --------- ------ ----------
    c1t2d0s0 yes yes yes no - 
    zfsBE yes no no yes - 

    Se retroceder para o ambiente de inicialização UFS, será necessário importar novamente os pools de armazenamento ZFS que foram criados no ambiente de inicialização ZFS porque eles não estão automaticamente disponíveis no ambiente de inicialização UFS. Você verá mensagens semelhantes à seguinte quando você voltar para o ambiente de inicialização UFS.

    # luactivate c1t2d0s0
    WARNING: The following files have changed on both the current boot 
    environment <ZFSbe> zone <global> and the boot environment to be activated <c1t2d0s0>:
     /etc/zfs/zpool.cache
    INFORMATION: The files listed above are in conflict between the current 
    boot environment <ZFSbe> zone <global> and the boot environment to be 
    activated <c1t2d0s0>. These files will not be automatically synchronized 
    from the current boot environment <ZFSbe> when boot environment <c1t2d0s0>