Oracle Guia de instalação do Solaris 10 9/10: Solaris Live Upgrade e planejamento da atualização

Capítulo 14 Solaris Live Upgrade para ZFS com regiões não-globais instaladas

Este capítulo fornece uma vista geral e procedimentos passo-a-passo para a migração de um sistema de arquivos raiz UFS (/) para um grupo raiz ZFS.


Observação –

Migrar de um sistema de arquivos raiz UFS (/) para um grupo raiz ZFS ou criar ambientes de inicialização ZFS com o Solaris Live Upgrade é novidade na versão Solaris 10 10/08. Ao executar um Solaris Live Upgrade para um sistema de arquivos UFS, ambos os parâmetros de linha de comando e operação do Solaris Live Upgrade permanecem inalterados. Para executar um Solaris Live Upgrade em um sistema com os sistemas de arquivos UFS, consulte Parte I, Atualizando com o Solaris Live Upgrade deste livro.


Criando um ambiente de inicialização ZFS em um sistema com regiões não-globais instaladas (vista geral e planejamento)

É possivel utilizar o Solaris Live Upgrade para migrar seu sistema de arquivos raiz UFS (/) com regiões não-globais instaladas em um grupo raiz ZFS. Todas as regiões não-globais que estão associados com o sistema de arquivos também são copiadas para o novo ambiente de inicialização. São suportados os seguintes cenários de migração de regiões não-globais:

Sistema de arquivos raiz pré-migração e combinação de região  

Sistema de arquivos raiz pós-migração e combinação de região 

O sistema de arquivos raiz UFS com o diretório raiz de região não global no sistema de arquivos UFS 

O sistema de arquivos raiz UFS com o diretório raiz de região não global em um grupo raiz ZFS 

 

Grupo raiz ZFS com o diretório de raiz de região não-global no grupo raiz ZFS 

 

Grupo raiz ZFS com o diretório raiz de região não global em um sistema de arquivos UFS 

Sistema de arquivos raiz UFS com uma raiz de região não global em um grupo raiz ZFS 

Grupo raiz ZFS com a raiz de região não-global em um grupo raiz ZFS 

 

Sistema de arquivos raiz UFS com a raiz de região não global no grupo raiz ZFS 

Grupo raiz ZFS com o diretório de raiz de região não-global no grupo raiz ZFS 

Grupo raiz ZFS com o diretório de raiz de região não-global no grupo raiz ZFS 

Em um sistema com um sistema de arquivos raiz UFS ( /) e regiões não-globais instaladas, as regiões não-globais são migradas se a região estiver em um sistema de arquivos não compartilhado como parte da migração de UFS para ZFS. Ou a região é clonada quando estiver atualizando dentro do mesmo grupo ZFS. Se uma região não global existe em um sistema de arquivos compartilhado UFS, para migrar para outro grupo raiz ZFS, é necessário primeiro atualizar a região não global, como nas versões anteriores do Solaris.

Migrando a partir de um sistema de arquivos raiz UFS (/) com regiões não-globais instaladas no grupo raiz ZFS (Tarefas)

Este capítulo fornece instruções passo-a-passo para migrar de um sistema de arquivos raiz UFS (/) a um grupo raiz ZFS em um sistema com regiões não-globais instaladas. Nenhuma região não global está em um sistema de arquivos compartilhado no sistema de arquivos UFS.

ProcedureComo migrar de um sistema de arquivos UFS para um grupo raiz ZFS em um sistema com regiões não-globais

O comando lucreate cria um ambiente de inicialização de um grupo raiz ZFS a partir de um sistema de arquivos de raiz UFS (/). Um grupo raiz ZFS deve existir antes da operação lucreate e deve ser criado com segmentos em vez dos discos inteiros a serem atualizados e inicializados. Este procedimento mostra como uma região não global existente associada com o sistema de arquivos raiz UFS (/) é copiado para o novo ambiente de inicialização em um grupo raiz ZFS.

No exemplo a seguir, a região não global existente, myzone, tem sua raiz de região não global em um sistema de arquivos raiz UFS (/). A região zzone possui sua raiz de região em um sistema de arquivos ZFS no grupo de armazenamento do ZFS existente, pool. O Solaris Live Upgrade é utilizado para migrar um ambiente de inicialização UFS, c2t2d0s0, a um ambiente de inicialização ZFS, zfs2BE. A região myzone com base em UFS migra para um novo grupo de armazenamento do ZFS, mpool, que é criado antes da operação com o Solaris Live Upgrade. A região com base em ZFS, não global, zzone, é clonada mas retida no grupo ZFS pool e migrada para o novo ambiente de inicializaçãozfs2BE.

  1. Complete as etapas a seguir na primeira vez que executar um Solaris Live Upgrade.


    Observação –

    Utilizando o Solaris Live Upgrade para criar novos ambientes de inicialização ZFS requer pelo menos que a versão Solaris 10 10/08 seja instalada. As versões anteriores não possuem o ZFS e o software Solaris Live Upgrade para executar as tarefas.


    1. Exclua os pacotes existentes do Solaris Live Upgrade em seu sistema, se necessário. Se estiver atualizando para uma nova versão, é necessário instalar os pacotes a partir dessa versão.

      Os três pacotes Solaris Live Upgrade, SUNWluu, SUNWlur eSUNWlucfg, compreendem o software necessário para fazer atualizações utilizando o Solaris Live Upgrade. Estes pacotes incluem o software existente, novos recursos e correções de erros. Se não remover os pacotes existentes e instalar os novos pacotes em seu sistema antes de utilizar o Solaris Live Upgrade, atualizar para a versão de destino irá causar falha.


      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    2. Instale os novos pacotes do Solaris Live Upgrade a partir da versão para a qual está atualizando. Para obter instruções, consulte  Instalando o Solaris Live Upgrade.

    3. Antes de instalar ou executar o Solaris Live Upgrade, é solicitado a instalar as seguintes correções. Essas correções garantem que tenha todas as últimas correções de bugs e novos recursos na versão.

      Assegure-se de que você tenha a lista de correção mais recentemente atualizada consultando SunSolve. Pesquise por Infodoc 206844 (antigamente, 72099) no site SunSolve.

      • Torne-se superusuário ou assuma uma função equivalente.


        Observação –

        Funções contêm autorizações e comandos privilegiados. Para mais informações sobre funções, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services .


      • Se estiver armazenando as correções em um disco local, crie um diretório tal como /var/tmp/lupatches e faça download das correções para esse diretório.

      • A partir do site SunSolve , obtenha a lista de correções.

      • Altere o diretório da correção.


        # cd /var/tmp/lupatches
        
      • Instale as correções com o comando patchadd.


        # patchadd patch_id
        

        patch_id é o número ou números das correções. Separe vários nomes de correção com um espaço.


        Observação –

        As correções devem ser aplicadas na ordem em que são especificadas na Infodoc 206844.


      • Reinicialize o sistema se necessário. Determinadas correções exigem uma reinicialização para tornarem-se efetivas.

        apenas x86: é necessário o reinicializar o sistema ou Solaris Live Upgrade irá falhar.


        # init 6
        
  2. Crie um grupo raiz ZFS.

    O grupo raiz ZFS deve estar em um único segmento a ser inicializado e atualizado.


    # zpool create rpool c3t0d0s0
    

    Neste exemplo, o nome do novo ZFS a ser criado é rpool . O grupo é criado em um segmento inicializável,c3t0d0s0.

    Para obter informações sobre como criar um novo grupo raiz, consulte o Guia de administração do ZFS Oracle Solaris.

  3. Migre seu sistema de arquivos raiz USF (/) para o novo grupo raiz ZFS.


    # lucreate [-c ufsBE] -n new-zfsBE -p rpool
    
    -c ufsBE

    Atribui o nome ufsBE ao atual ambiente de inicialização UFS. Esta opção não é necessária e é utilizada apenas quando o primeiro ambiente de inicialização é criado. Se executar o comando lucreate pela primeira vez e omitir a opção -c, o software cria um nome padrão por você.

    -n new-zfsBE

    Atribui o nome new-zfsBE ao ambiente de inicialização a ser criado. O nome deve ser único no sistema.

    -p rpool

    Coloque o recém-criado sistema de arquivos raiz ZFS (/) no grupo raiz ZFS definido em rpool.

    Todas as regiões não-globais e não compartilhadas são copiadas para o novo ambiente de inicialização junto com os com sistemas críticos de arquivos. A criação do novo ambiente de inicialização ZFS pode levar algum tempo. Os dados do sistema de arquivos UFS estão sendo copiados para o grupo raiz ZFS. Quando o ambiente de inicialização inativo foi criado, é possivel utilizar o comando luupgrade ou luactivate para atualizar ou ativar o novo ambiente de inicialização ZFS.

  4. (Opcional) Verifique se o ambiente de inicialização está concluído.

    O comando lustatus informa se a criação do ambiente de inicialização está completa e inicializável.


    # lustatus
    boot environment   Is         Active   Active     Can	    Copy 
    Name               Complete   Now	  OnReboot   Delete	 Status 
    ------------------------------------------------------------------------ 
    ufsBE               yes       yes      yes        no         - 
    new-zfsBE           yes       no       no        yes         -
  5. (Opcional) Verifique o conjunto de informações básicas sobre o sistema.

    O comando list exibe os nomes de todos os conjuntos de dados no sistema. Neste exemplo, rpool é o nome do grupo ZFS e new-zfsBE é o nome do recém-criado ambiente de inicialização ZFS.


    # zfs list
    NAME                        USED  AVAIL  REFER  MOUNTPOINT 
    rpool                      9.29G  57.6G    20K  /rpool
    rpool/ROOT                 5.38G  57.6G    18K  /rpool/ROOT
    rpool/ROOT/new-zfsBE       5.38G  57.6G   551M  /tmp/.alt.luupdall.110034
    rpool/dump                 1.95G      -  1.95G  - 
    rpool/swap                 1.95G      -  1.95G  - 

    Os pontos de montagem listados para o novo ambiente de inicialização são temporários até que o comando luactivate seja executado. Os volumes /dump e /swap não são compartilhados com o ambiente original de inicialização UFS, mas são compartilhadas dentro do grupo raiz ZFS e ambientes de inicialização dentro do grupo raiz.


Exemplo 14–1 Migrando de um sistema de arquivo raiz UFS (/) com regiões não-globais instaladas no grupo raiz ZFS

No exemplo a seguir, a região não global existente, myzone, possui sua raiz de região não global em um sistema de arquivos raiz UFS (/). A região zzone possui sua raiz de região em um sistema de arquivos ZFS no grupo de armazenamento ZFS existente, pool. O Solaris Live Upgrade é utilizado para migrar um ambiente de inicialização UFS, c2t2d0s0, a um ambiente de inicialização ZFS, zfs2BE. A região myzone com base em UFS migra para um novo grupo de armazenamento ZFS, mpool, que é criado antes da operação com o Solaris Live Upgrade. A região com base em ZFS, não global, zzone, é clonada, mas mantida no grupo ZFSpool e migrada para o novo ambiente de inicialização zfs2BE.


# zoneadm list -iv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   - myzone           installed  /zones/myzone                  native   shared
   - zzone            installed  /pool/zones                    native   shared

# zpool create mpool mirror c3t0d0s0 c4td0s0
# lucreate -c c1t2d0s0 -n zfs2BE -p mpool
Analyzing system configuration.
No name for current boot environment.
Current boot environment is named <c1t2d0s0>.
Creating initial configuration for primary boot environment <c1t2d0s0>.
The device </dev/dsk/c1t2d0s0> is not a root device for any 
boot environment; cannot get BE ID.
PBE configuration successful: PBE name <c1t2d0s0> PBE Boot Device 
</dev/dsk/c1t2d0s0>.
Comparing source boot environment <c1t2d0s0> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot
environment; cannot get BE ID.
Creating configuration for boot environment <zfsBE>.
Source boot environment is <c1t2d0s0>.
Creating boot environment <zfsBE>.
Creating file systems on boot environment <zfsBE>.
Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>.
Populating file systems on boot environment <zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-cBc.mnt
updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive
Population of boot environment <zfsBE> successful.
Creation of boot environment <zfsBE> successful.

Quando a operação lucreate for concluída, utilize o comando lustatus para visualizar o status do ambiente de inicialização como neste exemplo.


# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
c1t2d0s0                   yes      yes    yes       no     -         
zfsBE                      yes      no     no        yes    -         

# zoneadm list -iv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   - myzone           installed  /zones/myzone                  native   shared
   - zzone            installed  /pool/zones                    native   shared

Em seguida, utilize o comandoluactivate para ativar o novo ambiente de inicialização ZFS. Por exemplo:


# luactivate zfsBE
**********************************************************************

The target boot environment has been activated. It will be used when you 
reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You 
MUST USE either the init or the shutdown command when you reboot. If you 
do not use either init or shutdown, the system will not boot using the 
target BE.

**********************************************************************
In case of a failure while booting to the target BE, the following process 
needs to be followed to fallback to the currently working boot environment:

1. Enter the PROM monitor (ok prompt).

2. Change the boot device back to the original boot environment by typing:

     setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a

3. Boot to the original boot environment by typing:

     boot

**********************************************************************

Modifying boot archive service
Activation of boot environment <ZFSbe> successful.

Reinicialize o sistema para o ZFS BE.


# init 6
# svc.startd: The system is coming down.  Please wait.
svc.startd: 79 system services are now being stopped.
.
.
.

Confirme o novo ambiente de inicialização e o status das regiões migradas como neste exemplo.


# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
c1t2d0s0                   yes      yes    yes       no     -         
zfsBE                      yes      no     no        yes    -         

Se retroceder para o ambiente de inicialização UFS, então será necessário importar novamente os grupos de armazenamento ZFS que foram criados no ambiente de inicialização ZFS porque eles não estão automaticamente disponíveis no ambiente de inicialização UFS. Você verá mensagens semelhantes à seguinte quando você voltar para o ambiente de inicialização UFS.


# luactivate c1t2d0s0
WARNING: The following files have changed on both the current boot 
environment <ZFSbe> zone <global> and the boot environment to be activated <c1t2d0s0>:
 /etc/zfs/zpool.cache
INFORMATION: The files listed above are in conflict between the current 
boot environment <ZFSbe> zone <global> and the boot environment to be 
activated <c1t2d0s0>. These files will not be automatically synchronized 
from the current boot environment <ZFSbe> when boot environment <c1t2d0s0>

Recursos adicionais

Para obter informações adicionais sobre os temas incluídos neste capítulo, consulte os recursos listados no Tabela 14–1.

Tabela 14–1 Recursos adicionais

Recurso  

Local 

Para obter informações sobre as regiões não-globais, incluindo a vista geral, planejamento e instruções passo-a-passo 

Guia de administração do sistema: gerenciamento de recursos Oracle Solaris Containers e Oracle Solaris Zones

Para informações ZFS, incluindo a vista geral, planejamento e instruções passo-a-passo 

Guia de administração do ZFS Oracle Solaris

Para obter informações sobre como utilizar o Solaris Live Upgrade em um sistema com os sistemas de arquivos UFS 

Parte I, Atualizando com o Solaris Live Upgrade of this book, including Capítulo 8Atualizando o Solaris OS em um sistema com regiões não globais instaladas