Oracle Guia de instalação do Solaris 10 9/10: Solaris Live Upgrade e planejamento da atualização

Parte II Atualizando e migrando com Solaris Live Upgrade para um grupo raiz ZFS

Esta parte oferece uma vista geral e instruções a utilização do Solaris Live Upgrade para criar e atualizar um ambiente de inicialização inativo em grupos de armazenamento ZFS. Além disso, é possivel migrar seu sistema de arquivos raiz UFS (/) a um grupo raiz ZFS.

Capítulo 11 Solaris Live Upgrade e ZFS (visão geral)

Com o Solaris Live Upgrade é possível migrar os sistemas de arquivos UFS para um conjunto raiz ZFS e criar sistemas de arquivos raiz ZFS a partir de um conjunto raiz ZFS existente.


Observação –

Criar ambientes de inicialização com o Solaris Live Upgrade é novidade na versão 10 10/08 do Solaris. Quando efetuar o Solaris Live Upgrade para um sistema de arquivos UFS, os parâmetros da linha de comando e operação do Solaris Live Upgrade permanecem inalteradas. Para efetuar o Solaris Live Upgrade em um sistema com sistemas de arquivos UFS, consulte Parte I, Atualizando com o Solaris Live Upgrade deste livro.


As seções a seguir fornecem um visão geral destas tarefas:

Novidade da versão 10 10/09 do Solaris

A partir do Solaris 10 10/09, é possível instalar um perfil JumpStart para identificar um arquivo Flash de um pool raiz ZFS.

É possível criar um arquivo Flash em um sistema que executa um sistema de arquivos raiz UFS ou ZFS. O arquivo Flash de um sistema de arquivos raiz ZFS contém toda a hierarquia do pool, exceto para volumes de dump e intercâmbio, e todos os conjuntos de dados excluídos. Os volumes de despejo e permuta são criados quando o arquivo Flash é instalado.

Você pode usar o método de instalação do arquivo Flash da seguinte forma:

Para limitações e instruções detalhadas, consulte Instalando um sistema de arquivos raiz ZFS (instalação de arquivo do Oracle Solaris Flash) no Guia de administração do ZFS Oracle Solaris.

Introdução sobre a utilização do Solaris Live Upgrade com ZFS

Se você possuir um sistema de arquivos UFS, o Solaris Live Upgrade trabalha da mesma forma que nas versões anteriores. Agora é possível migrar a partir de sistemas de arquivos UFS para um conjunto raiz ZFS e criar novos ambientes de inicialização dentro de um conjunto raiz ZFS. Para essas tarefas, o comando lucreate foi aprimorado com a opção -p. A sintaxe do comando é a seguinte:


# lucreate [-c active_BE_name] -n BE_name [-p zfs_root_pool]

A opção -p especifica o conjunto ZFS no qual o novo ambiente de inicialização reside. Essa opção pode ser omitida se os ambiente de inicialização fonte e destino estiverem dentro do mesmo conjunto.

O comando lucreate opção -m não é suportado com ZFS. Outras opções do comando lucreate trabalham normalmente, com algumas exceções. Para limitações, consulte Requisitos e limitações do sistema ao utilizar o Solaris Live Upgrade.

Migrando a partir de um sistema de arquivos UFS para um conjunto raiz ZFS

Se você criar um ambiente de inicialização a partir do sistema atualmente em execução, o comando lucreate copia o sistema de arquivos (/) raiz UFS para um conjunto raiz ZFS. O processo de cópia pode demorar um pouco, dependendo do sistema.

Ao migrar a partir de um sistema de arquivos UFS, o ambiente de inicialização fonte pode ser um sistema de arquivos (/) raiz UFS em um segmento de disco. Não é possível criar um ambiente de inicialização em um sistema de arquivos UFS a partir de um ambiente de inicialização fonte em um conjunto raiz ZFS.

Migrando a partir de um sistema de arquivos (/) raiz UFS para um conjunto raiz ZFS

Os comandos a seguir criam um conjunto raiz ZFS e um novo ambiente de inicialização a partir de um sistema de arquivos (/) raiz UFS no conjunto raiz ZFS. Um conjunto raiz ZFS deve existir antes da operação lucreate e deve ser criado com segmentos em vez de discos inteiros para ser atualizável e inicializável. O disco não pode possuir um rótulo EFI, mas deve ser um rótulo SMI. Para mais limitações, consulte Requisitos e limitações do sistema ao utilizar o Solaris Live Upgrade.

Figura 11–1 mostra o comando zpool que cria um conjunto raiz, rpool, em um segmento separado, c0t1d0s5. Esse segmento de disco c0t0d0s0 contém um sistema de arquivos (/) raiz UFS. No comando lucreate, a opção -c nomeia o sistema atualmente em execução, c0t0d0 , que é um sistema de arquivos (/) raiz UFS. A opção -n atribui o nome para o ambiente de inicialização a ser criado, new-zfsBE. A opção -p especifica onde colocar o novo ambiente de inicialização, rpool. O sistema de arquivos /export UFS e o volume /swap não são copiados para o novo ambiente de inicialização.

Figura 11–1 Migrando a partir de um sistema de arquivos UFS para um conjunto raiz ZFS

O contexto descreve a ilustração.


Exemplo 11–1 Migrando a partir de um sistema de arquivos (/) raiz UFS para um conjunto raiz ZFS

Este exemplo mostra os mesmos comandos como em Figura 11–1. Os comandos criam um novo conjunto raiz, rpool, e cria um novo ambiente de inicialização no conjunto a partir de um sistema de arquivos (/) raiz UFS. Neste exemplo, o comando zfs list mostra o conjunto raiz ZFS criado pelo comando zpool. O próximo comando zfs list mostra os conjuntos de dados criados pelo comando lucreate.


# zpool create rpool c0t1d0s5
# zfs list
NAME                        USED  AVAIL  REFER  MOUNTPOINT 
rpool                      9.29G  57.6G    20K  /rpool

# lucreate -c c0t0d0 -n new-zfsBE -p rpool
# zfs list
NAME                        USED  AVAIL  REFER  MOUNTPOINT 
rpool                      9.29G  57.6G    20K  /rpool
rpool/ROOT                 5.38G  57.6G    18K  /rpool/ROOT
rpool/ROOT/new-zfsBE       5.38G  57.6G   551M  /tmp/.alt.luupdall.110034
rpool/dump                 1.95G      -  1.95G  - 
rpool/swap                 1.95G      -  1.95G  - 

O novo ambiente de inicialização é rpool/ROOT/new-zfsBE. O ambiente de inicialização, new-zfsBE, está pronto para ser atualizado e ativado.


Migrando um sistema de arquivos UFS com os volumes Solaris Volume Manager configurados para um sistema de arquivos raiz ZFS

É possível migrar o sistema de arquivos UFS se o sistema possuir volumes Solaris Volume Manager (SVM). Para criar um ambiente de inicialização UFS a partir de uma configuração SVM existente, crie um novo ambiente de inicialização a partir do sistema atualmente em execução. A seguir, crie o ambiente de inicialização ZFS a partir do novo ambiente de inicialização UFS.

Visão geral do Solaris Volume Manager (SVM). O ZFS usa o conceito de pools de armazenamento para gerenciar armazenamentos físicos. Os sistemas de arquivos sempre foram construídos em cima de um dispositivo físico. Para endereçar vários dispositivos e fornecer para redundância de dados, o conceito de um gerenciador de volume foi introduzido para fornecer a imagem de um único dispositivo. Portanto, os sistemas de arquivos não devem ser modificados para obter benefícios de vários dispositivos. Este projeto adicionou outra camada de complexidade. Essa complexidade finalmente evita certos avanços do sistema de arquivos, porque o sistema de arquivos não controlava a localização física dos dados nos volumes virtualizados.

Conjuntos de armazenamento ZFS substituem o SVM. O ZFS elimina completamente o gerenciador de volumes. Em vez de forçar você a criar volumes virtualizados, o ZFS agrega os dispositivos em um pool de armazenamento. O conjunto de armazenamento descreve tais características físicas da redundância de dados e do layout do dispositivo de armazenamento e age como um armazenamento de dados arbitrário, a partir do qual sistemas de arquivos podem ser criados. Os sistemas de arquivos não são mais restritos a dispositivos individuais, permitindo, assim, que eles compartilhem espaço com todos os sistemas de arquivos do conjunto. Já não é necessário predeterminar o tamanho de um sistema de arquivos, visto que os sistemas de arquivos crescem automaticamente dentro do espaço alocado para o pool de armazenamento. Quando novos armazenamentos são adicionados, todos os sistemas de arquivos que estão dentro do pool podem usar imediatamente o espaço adicional sem trabalho adicional. Muitas vezes o pool de armazenamento age como um sistema de memória virtual. Quando uma memória DIMM é adicionada a um sistema, o sistema operacional não lhe obriga a chamar comandos para configurar a memória e atribui-la a processos individuais. Todos os processos do sistema usam automaticamente a memória adicional.


Exemplo 11–2 Migrando a partir de um sistema de arquivos (/) raiz UFS com volumes SVM para um conjunto raiz ZFS

Ao migrar um sistema com volumes SVM, os volumes SVM são ignorados. É possível configurar espelhos dentro do conjunto raiz, como no exemplo a seguir.

Neste exemplo, o comando lucreate com a opção -m cria um novo ambiente de inicialização a partir do sistema atualmente em execução. Esse segmento de disco c1t0d0s0 contém um sistema de arquivos (/) raiz UFS configurado com os volumes SVM. O comando zpool cria um conjunto raiz, c1t0d0s0, e um volume RAID-1 (espelho), c2t0d0s0. No segundo comando lucreate, a opção - n atribui o nome para o ambiente de inicialização a ser criado, c0t0d0s0. A opção -s, identifica o sistema de arquivos (/) raiz UFS. A opção -p especifica onde colocar o novo ambiente de inicialização, rpool.


# lucreate -n ufsBE -m /:/dev/md/dsk/d104:ufs
# zpool create rpool mirror c1t0d0s0 c2t1d0s0
# lucreate -n c0t0d0s0 -s ufsBE -p zpool

O ambiente de inicialização, c0t0d0s0, está pronto para ser atualizado e ativado.


Criando um novo ambiente de inicialização a partir de um conjunto raiz ZFS

Também é possível criar um ambiente de inicialização ZFS dentro do mesmo conjunto raiz ou em outro conjunto raiz. Esta seção contém as visões gerais a seguir:

Criando um novo ambiente de inicialização dentro o mesmo conjunto raiz

Ao criar um novo ambiente de inicialização dentro do mesmo conjunto raiz ZFS, o comando lucreate cria um instantâneo do ambiente de inicialização fonte e, em seguida, um clone é feito a partir do instantâneo. A criação do instantâneo e do clone é quase instantânea, e o espaço em disco utilizado é mínimo. A quantidade de espaço finalmente utilizada depende de quantos arquivos são substituídos como parte do processo de atualização. O instantâneo é de somente leitura, mas o clone é um cópia para leitura e escrita do instantâneo. Qualquer alteração feita ao ambiente de inicialização clone não é refletida tanto no instantâneo quanto no ambiente de inicialização fonte, do qual o instantâneo foi feito.


Observação –

À medida que os dados se alteram dentro do conjunto de dados ativo, o instantâneo passa a consumir mais espaço devido às contínuas referências aos dados antigos. Como conseqüência, o instantâneo evita que os dados sejam liberados de novo no pool. Para mais informações sobre instantâneos, consulte Capítulo 7, Trabalhando com instantâneos e clones do ZFS do Oracle Solaris, no Guia de administração do ZFS Oracle Solaris.


Quando o ambiente de inicialização atual reside no mesmo conjunto ZFS, a opção - p é omitida.

Figura 11–2 mostra a criação de um ambiente de inicialização ZFS a partir de um conjunto raiz ZFS. O segmento c0t0d0s0 contém o conjunto raiz ZFS, rpool. No comando lucreate, a opção -n atribui o nome para o ambiente de inicialização a ser criado, new-zfsBE. Um instantâneo do conjunto raiz original é criado rpool@new-zfsBE. O instantâneo utilizado para fazer o clone que é o novo ambiente de inicialização, new-zfsBE. O ambiente de inicialização, new-zfsBE, está pronto para ser atualizado e ativado.

Figura 11–2 Criando um novo ambiente de inicialização no mesmo conjunto raiz

O contexto descreve a ilustração.


Exemplo 11–3 Criando um ambiente de inicialização dentro do mesmo conjunto raiz ZFS

Este exemplo mostra o mesmo comando como em Figura 11–2 que cria um novo ambiente de inicialização no mesmo conjunto raiz. O comando lucreate nomeia o ambiente de inicialização atualmente em execução com a opção -c zfsBE e a -n new-zfsBE cria o novo ambiente de inicialização. O comando zfs list mostra os conjunto de dados ZFS com o novo ambiente de inicialização e instantâneo.


# lucreate -c zfsBE -n new-zfsBE
# zfs list
AME                        USED  AVAIL  REFER  MOUNTPOINT 
rpool                      9.29G  57.6G    20K  /rpool
rpool/ROOT                 5.38G  57.6G    18K  /rpool/ROOT
rpool/ROOT/zfsBE           5.38G  57.6G   551M  
rpool/ROOT/zfsBE@new-zfsBE 66.5K      -   551M  -
rpool/ROOT/new-zfsBE       5.38G  57.6G   551M  /tmp/.alt.luupdall.110034
rpool/dump                 1.95G      -  1.95G  - 
rpool/swap                 1.95G      -  1.95G  - 

Criando um novo ambiente de inicialização em outro conjunto raiz

É possível utilizar o comando lucreate para copiar um conjunto raiz ZFS existente em outro conjunto raiz ZFS. O processo de cópia pode demorar um pouco, dependendo do sistema.

Figura 11–3 mostra o comando zpool que cria um conjunto raiz ZFS, rpool2, no c0t1d0s5 porque um conjunto raiz ZFS inicializável ainda não existe. O comando lucreate com a opção -n atribui o nome para o ambiente de inicialização a ser criado, new-zfsBE. A opção -p especifica onde colocar o novo ambiente de inicialização.

Figura 11–3 Criando um novo ambiente de inicialização em outro conjunto raiz

O contexto descreve a ilustração.


Exemplo 11–4 Criando um ambiente de inicialização em um conjunto raiz ZFS diferente

Este exemplo mostra os mesmo comandos como em Figura 11–3 que cria o novo conjunto raiz e, em seguida, um novo ambiente de inicialização no conjunto raiz recém criado. Neste exemplo, o comando zpool create cria rpool2. O comando zfs list mostra que nenhum conjunto de dados ZFS é criado em rpool2. Os conjuntos de dados criados com o comando lucreate.


# zpool create rpool2 c0t2d0s5
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT                       5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G   551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   - 

O novo conjunto raiz ZFS, rpool2, é criado no segmento de disco c0t2d0s5.


# lucreate -n new-zfsBE -p rpool2
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M   /tmp/.new.luupdall.109859
rpool2/dump                      3.99G        -   3.99G   - 
rpool2/swap                      3.99G        -   3.99G   - 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT                       5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G   551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   - 

O novo ambiente de inicialização, new-zfsBE, é criado em rpool2 junto com os outros conjuntos de dados, ROOT, despejo e permuta. O ambiente de inicialização, new-zfsBE, está pronto para ser atualizado e ativado.


Criando um novo ambiente de inicialização a partir de uma fonte diferente do sistema atualmente em execução.

Se você estiver criando um ambiente de inicialização a partir de uma fonte diferente do sistema atualmente em execução, é necessário utilizar o comando lucreate com a opção -s. A opção -s trabalha da mesma forma para o sistema de arquivos UFS. A opção -s fornece o caminho para o sistema de arquivos (/) raiz alternativo. Esse sistema de arquivos (/) raiz alternativo é a fonte para a criação do novo conjunto raiz ZFS. A raiz alternativa pode ser tanto um sistema de arquivos raiz (/) UFS quanto um conjunto raiz ZFS. O processo de cópia pode demorar um pouco, dependendo do sistema.


Exemplo 11–5 Criando um ambiente de inicialização a partir de um sistema de arquivos (/) raiz alternativo

O comando a seguir cria um novo conjunto raiz ZFS a partir de um conjunto raiz ZFS existente. A opção -n atribui o nome para o ambiente de inicialização a ser criado, new-zfsBE. A opção -s especifica o ambiente de inicialização, source-zfsBE, a ser utilizando como fonte da cópia, em vez do ambiente de inicialização atualmente em execução. A opção -p especifica para colocar o novo ambiente de inicialização em newpool2.


# lucreate -n new-zfsBE  -s source-zfsBE -p rpool2

O ambiente de inicialização, new-zfsBE, está pronto para ser atualizado e ativado.


Criando um ambiente de inicialização ZFS em um sistema com regiões não globais instaladas.

É possível utilizar o Solaris Live Upgrade para migrar regiões não globais para um sistema de arquivos raiz ZFS. Para uma visão geral, planejamento e procedimentos passo-a-passo, consulte Capítulo 14Solaris Live Upgrade para ZFS com regiões não-globais instaladas.

Recursos adicionais

Para informações adicionais sobre os tópicos incluídos neste capítulo, consulte os recursos listados em Tabela 11–1.

Tabela 11–1 Recursos adicionais

Recurso  

Local 

Para obter informações sobre o ZFS, incluindo uma visão geral, planejamento e instruções passo-a-passo 

Guia de administração do ZFS Oracle Solaris

Para utilizar o Solaris Live Upgrade em um sistema com sistemas de arquivos UFS 

Parte I, Atualizando com o Solaris Live Upgrade deste livro

Capítulo 12 Solaris Live Upgrade para ZFS (planejamento)

Este capítulo fornece diretrizes e requisitos para revisar antes de efetuar uma migração de um sistema de arquivos UFS para um sistema de arquivos ZFS ou antes de criar um novo ambiente de inicialização ZFS a partir de um conjunto raiz ZFS existente.


Observação –

Criar ambientes de inicialização com o Solaris Live Upgrade é novidade na versão 10 10/08 do Solaris. Quando você efetuar o Solaris Live Upgrade para um sistema de arquivos UFS, os parâmetros da linha de comando e a operação do Solaris Live Upgrade permanecem inalteradas. Para efetuar o Solaris Live Upgrade em um sistema com sistemas de arquivos UFS, consulte Parte I, Atualizando com o Solaris Live Upgrade deste livro.


Requisitos e limitações do sistema ao utilizar o Solaris Live Upgrade

Assegure-se de ter lido e entendido os requisitos e as limitações a seguir antes de efetuar uma migração de um sistema de arquivos UFS para um sistema de arquivos ZFS ou antes de criar um novo ambiente de inicialização ZFS a partir de um conjunto raiz ZFS existente. Esses requisitos são adicionais aos listados em Capítulo 6, Instalação do sistema de arquivos raiz ZFS (planejamento), no Guia de instalação do Oracle Solaris 10 9/10: planejamento para instalação e atualização.

Tabela 12–1 Requisitos e limitações

Requisitos ou limitações 

Descrição 

Informações 

É necessário possuir pelo menos a versão 10 10/08 do Solaris instalada. 

Migrar a partir de um sistema de arquivos UFS para um conjunto raiz ZFS com o Solaris Live Upgrade ou criar um novo ambiente de inicialização em um conjunto raiz é novidade na versão 10 10/08 do Solaris. Essa versão contém o software necessário para utilizar o Solaris Live Upgrade com ZFS. É necessário possuir ao menos essa versão instalada para utilizar o ZFS.

 

Espaço em disco 

A quantidade mínima de espaço disponível do conjunto em um sistema de arquivos raiz ZFS inicializável depende da quantidade de memória física, do espaço em disco disponível e do número de ambientes de inicialização que serão criados.  

Para uma explicação, consulte Requisitos para espaço em disco para uma instalação ZFS no Guia de instalação do Oracle Solaris 10 9/10: planejamento para instalação e atualização.

Ao migrar a partir de um sistema de arquivos (/) raiz UFS para um conjunto raiz ZFS, considere estes requisitos.

  • A migração somente é possível a partir de um sistema de arquivos UFS para um sistema de arquivos ZFS.

    • Sistemas de arquivos diferentes do sistema de arquivos UFS não podem ser migrados para um conjunto raiz ZFS.

    • Um sistema de arquivos UFS não pode ser criado a partir de um conjunto raiz ZFS.

  • Antes de migrar, um conjunto de armazenamento ZFS deve existir.

  • O pool de armazenamento do ZFS deve ser criado com faixas em vez de com um disco inteiro para que possa ser atualizável e inicializável.

    • O conjunto criado com segmentos pode ser espelhado, mas não um RAID-Z ou configuração não redundante de vários discos. As informações de dispositivo SVM já devem estar disponíveis no diretório /dev/md/[r]dsk.

    • O pool deve ter um rótulo SMI. O disco rotulado como EFI não pode ser inicializado.

    • Apenas x86: o conjunto ZFS deve ser um segmento com uma partição fdisk.

Quando você migra sistemas de arquivos compartilhados, não é possível copiá-los para um segmento separado no novo conjunto raiz ZFS. 

Por exemplo, ao utilizar o Solaris Live Upgrade com um sistema de arquivos (/), raiz UFS, é possível utilizar a opção -m para copiar o sistema de arquivos /export para outro dispositivo. Você não possui a opção -m para copiar o sistema de arquivos raiz para um conjunto ZFS.

 

Ao migrar um sistema de arquivos raiz UFS que contém regiões não globais, sistemas de arquivos compartilhados não são migrados. 

Em um sistema com um sistema de arquivos () raiz UFS e regiões não globais instaladas, as regiões não globais são migradas se a região estiver em um sistema de arquivos como parte da migração de UFS para ZFS. Ou a região é clonada quando você estiver atualizando dentro do mesmo conjunto ZFS. Se há uma região não global em um sistema de arquivos (/) UFS compartilhado, a fim de migrar para um conjunto raiz ZFS, é necessário primeiro atualizar a região, como nas versões anteriores do Solaris.

Não utilize o comando rename ZFS.

O recurso Solaris Live Upgrade não é avisado sobre a alteração de nome e, assim, comandos subsequentes, como ludelete, irão falhar. De fato, não renomeie os conjuntos ou sistemas de arquivos ZFS se você possuir ambientes de inicialização que deseja continuar utilizando.

 

Configure as propriedades do conjunto de dados antes do comando lucreate ser utilizado.

O Solaris Live Upgrade cria os conjuntos de dados para o ambiente de inicialização e os volumes ZFS da área de permuta e do dispositivo de despejo, mas não considera quaisquer modificações das propriedades do conjunto de dados existente. Isso significa, que se você desejar uma propriedade do conjunto de dados ativa no novo ambiente de inicialização, é necessário definir a propriedade antes da operação lucreate. Por exemplo:


# zfs set compression=on rpool/ROOT

Consulte Introduzindo as propriedades do ZFS no Guia de administração do ZFS Oracle Solaris.

Ao criar um ambiente de inicialização ZFS dentro do mesmo conjunto raiz ZFS, não é possível utilizar o comando lucreate para incluir e excluir opções para personalizar o conteúdo.

Não é possível utilizar as opções -f, -o, -y, - Y e -z para incluir ou excluir arquivos do primeiro ambiente de inicialização ao criar um ambiente de inicialização no mesmo conjunto raiz ZFS. Entretanto, é possível utilizar essas opções nos casos a seguir:

  • Criando um ambiente de inicialização a partir de um sistema de arquivos UFS para um sistema de arquivos UFS

  • Criando um ambiente de inicialização a partir de um sistema de arquivos UFS para um conjunto raiz ZFS

  • Criando um ambiente de inicialização a partir de um conjunto raiz ZFS para um conjunto raiz ZFS diferente

Para obter informações sobre como utilizar as opções de inclusão e exclusão, consulte Para criar um ambiente de inicialização e personalizar o conteúdo.

Não é possível utilizar o Solaris Live Upgrade para atualizar sistemas de arquivos ZFS não raiz. 

   

Recursos adicionais

Para informações adicionais sobre os tópicos incluídos neste capítulo, consulte os recursos listados em Tabela 12–2.

Tabela 12–2 Recursos adicionais

Recurso 

Local 

Para mais informações sobre o planejamento de uma instalação ZFS 

Capítulo 6, Instalação do sistema de arquivos raiz ZFS (planejamento), no Guia de instalação do Oracle Solaris 10 9/10: planejamento para instalação e atualização

Para obter informações sobre o ZFS, incluindo uma visão geral, planejamento e instruções passo-a-passo 

Guia de administração do ZFS Oracle Solaris

Para utilizar o Solaris Live Upgrade em um sistema com sistemas de arquivos UFS 

Parte I, Atualizando com o Solaris Live Upgrade deste livro

Capítulo 13 Criando um ambiente de inicialização para conjuntos raiz ZFS

Este capítulo fornece procedimentos passo-a-passo sobre como criar um ambiente de inicialização ZFS utilizando o Solaris Live Upgrade.


Observação –

Migrar de um sistema de arquivos UFS para um conjunto raiz ZFS ou criar ambientes de inicialização ZFS com o Solaris Live Upgrade é novo na versão 10 10/08 do Solaris. Para utilizar o Solaris Live Upgrade em um sistema com sistemas de arquivos UFS, consulte Parte I, Atualizando com o Solaris Live Upgrade deste livro.


Este capítulo fornece procedimentos para as tarefas a seguir:

Para procedimentos ao utilizar ZFS quando regiões não globais são instaladas, consulte Capítulo 14Solaris Live Upgrade para ZFS com regiões não-globais instaladas.

Migrando um sistema de arquivos UFS para um sistema de arquivos ZFS

Esse procedimento descreve como migrar um sistema de arquivos UFS para um sistema de arquivos ZFS. Criar um ambiente e inicialização fornece um método de copiar sistema de arquivos críticos de um ambiente de inicialização UFS ativo para um conjunto raiz ZFS. O comando lucreate copia os sistemas de arquivos críticos para um novo ambiente de inicialização em um conjunto raiz ZFS existente. Sistemas de arquivos (compartilháveis) definidos pelo usuário não são copiados e não são compartilhados com o ambiente de inicialização UFS fonte. Além disso, /swap não é compartilhado entre o sistema de arquivos UFS e o conjunto raiz ZFS. Para uma visão geral de sistemas de arquivos críticos e compartilháveis, consulte Tipos de sistemas de arquivos.

ProcedureHow to Migrate a UFS File System to a ZFS File System


Observação –

Para migrar um sistema de arquivos (/) UFS raiz para um conjunto raiz ZFS, é necessário fornecer o nome do conjunto raiz. Os sistemas de arquivos críticos são copiados no conjunto raiz.


  1. Antes de executar o Solaris Live Upgrade pela primeira vez, é necessário instalar os pacotes do Solaris Live Upgrade mais recentes a partir da mídia de instalação e instalar os patches listados no SunSolve Infodoc 206844. Pesquise pelo Infodoc 206844 (formalmente 72099) no site SunSolve.

    Os pacotes e patches mais recentes garantem que você possua todas as últimas correções de erros e novos recursos dessa versão. Assegure-se de que foram instalados todos os patches que são relevantes para o sistema antes de continuar para criar um novo ambiente de inicialização.

    As subetapas a seguir descrevem as etapas no SunSolve Infodoc 206844.


    Observação –

    Utilizar o Solaris Live Upgrade para criar os novos ambientes de inicialização ZFS exige, pelo menos, que a versão 10 10/08 do Solaris esteja instalada. Versões anteriores não possuem o software Solaris Live Upgrade e ZFS para efetuar as tarefas.


    1. Torne-se superusuário ou assuma uma função equivalente.


      Observação –

      Funções contêm autorizações e comandos privilegiados. Para mais informações sobre funções, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services.


    2. Do site SunSolve, siga as instruções no Infodoc 206844 para remover e adicionar pacotes Solaris Live Upgrade.

      Os três pacotes Solaris Live Upgrade, SUNWluu, SUNWlur e SUNWlucfg, incluem o software necessário para atualizar utilizando o Solaris Live Upgrade. Esses pacotes incluem o software existente, novos recursos e correções de erros. Se você não remover os pacotes existentes e instalar os novos pacotes no sistema antes de utilizar o Solaris Live Upgrade, a atualização para a versão de destino falha. O pacote SUMWlucfg é o novo iniciando com a versão 10 8/07 do Solaris. Se você estiver utilizando os pacotes Solaris Live Upgrade de uma versão anterior ao Solaris 10 8/07, não é necessário remover esse pacote.


      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    3. Instale os novos pacotes Solaris Live Upgrade da versão para a qual você está atualizando. Para instruções, consulte  Instalando o Solaris Live Upgrade.

    4. Antes de executar o Solaris Live Upgrade, é necessário instalar os patches a seguir. Esses patches garantem que você possua todas as últimas correções de erros e novos recursos dessa versão.

      Assegure-se de que você possua a lista de patch mais atualizada consultando SunSolve. Pesquise pelo Infodoc 206844 (formalmente 72099) no site SunSolve.

      • Se você estiver armazenando os patches em um disco local, crie um diretório como /var/tmp/lupatches e baixe os patches para este diretório.

      • Obtenha a lista de patches a partir do site SunSolve .

      • Altere para o diretório de patch.


        # cd /var/tmp/lupatches
        
      • Instale os patches com o comando patchadd.


        # patchadd patch_id
        

        patch_id é o número ou números de patch. Separe vários nomes de patch com um espaço.


        Observação –

        Os patches precisam ser aplicados na ordem especificada no Infodoc 206844.


      • Reinicialize o sistema se necessário. Certos patches necessitam de uma reinicialização para ser efetivados.

        apenas x86 : se o sistema não for inicializado o Solaris Live Upgrade falha.


        # init 6
        

        Agora, você possui os pacotes e os patches necessários para efetuar uma migração com sucesso.

  2. Crie um conjunto raiz ZFS.

    O conjunto raiz ZFS deve estar em um segmento único para ser inicializável e atualizável.


    # zpool create rpool  c0t1d0s5
    
    rpool

    Especifique o nome do novo conjunto raiz ZFS a ser criado.

    c0t1d0s5

    Crie o novo conjunto raiz no segmento de disco, c0t1d0s5 .

    Para obter informações sobre como criar um novo conjunto raiz, consulte Guia de administração do ZFS Oracle Solaris.

  3. Migre o sistema de arquivo (/) raiz UFS para o novo conjunto raiz ZFS.


    # lucreate [-c ufsBE] -n new-zfsBE -p rpool
    
    -c ufsBE

    Atribua o nome ufsBE para o ambiente de inicialização UFS atual. Essa opção não é necessária e é utilizada apenas quando o primeiro ambiente de inicialização é criado. Se você executar o comando lucreate pela primeira vez e omitir a opção -c, o software cria um nome padrão.

    -n new-zfsBE

    Atribua o nome new-zfsBE para o ambiente de inicialização a ser criado. O nome deve ser único no sistema.

    -p rpool

    Coloca o sistema de arquivos (/) ZFS raiz recém criado no conjunto raiz ZFS definido em rpool.

    A criação do novo ambiente de inicialização ZFS pode demorar. Os dados do sistema de arquivos UFS estão sendo copiados para o conjunto raiz ZFS. Quando o ambiente de inicialização inativo for criado, é possível utilizar o comando luupgrade ou luactivate para atualizar ou ativar o novo ambiente de inicialização ZFS.

  4. (Opcional) Verifique se o ambiente de inicialização está concluído.

    Neste exemplo, o comando lustatus informa se a criação do ambiente de inicialização foi concluída e inicializada.


    # lustatus
    boot environment   Is         Active   Active     Can	    Copy 
    Name               Complete   Now	  OnReboot   Delete	 Status 
    -----------------------------------------------------------------
    ufsBE               yes       yes      yes        no         -
    new-zfsBE           yes       no       no        yes         -
  5. (Opcional) Verifique as informações básicas do conjunto de dados no sistema.

    O comando list exibe os nomes de todos os conjuntos de dados do sistema. Neste exemplo, rpool é o nome do conjunto ZFS e new-zfsBE é o nome do ambiente de inicialização ZFS recém criado.


    # zfs list
    NAME                        USED  AVAIL  REFER  MOUNTPOINT 
    rpool                      9.29G  57.6G    20K  /rpool
    rpool/ROOT                 5.38G  57.6G    18K  /rpool/ROOT
    rpool/ROOT/new-zfsBE       5.38G  57.6G   551M  /tmp/.alt.luupdall.110034
    rpool/dump                 1.95G      -  1.95G  - 
    rpool/swap                 1.95G      -  1.95G  - 

    Os pontos de montagem listados para o novo ambiente de inicialização são temporários até que o comando luactivate seja executado. Os volumes /dump e /swap não são compartilhados com o ambiente de inicialização UFS original, mas são compartilhados no conjunto raiz ZFS e os ambientes de inicialização no conjunto raiz.

    Agora é possível atualizar e ativar o novo ambiente de inicialização. Consulte Exemplo 13–1.


Exemplo 13–1 Migrando um sistema de arquivos (/) raiz UFS para um conjunto raiz ZFS

Neste exemplo, o novo conjunto raiz ZFS, rpool, é criado em um segmento separado, C0t0d0s4. O comando lucreate migra o ambiente de inicialização UFS atualmente em execução, c0t0d0, para o novo ambiente de inicialização ZFS, new-zfsBE, e coloca o novo ambiente de inicialização no rpool.


# zpool create rpool C0t0d0s4

# zfs list
NAME                        USED  AVAIL  REFER  MOUNTPOINT 
rpool                      9.29G  57.6G    20K  /rpool
# lucreate -c c0t0d0 -n new-zfsBE -p rpool
Analyzing system configuration.
Current boot environment is named <c0t0d0>.
Creating initial configuration for primary boot environment <c0t0d0>.
The device </dev/dsk/c0t0d0> is not a root device for any boot 
environment; cannot get BE ID.
PBE configuration successful: PBE name <c0t0d0> PBE Boot Device 
</dev/dsk/c0t0d0>.
Comparing source boot environment <c0t0d0> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot 
environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsBE>.
Source boot environment is <c0t0d0>.
Creating boot environment <new-zfsBE>.
Creating file systems on boot environment <new-zfsBE>.
Creating <zfs> file system for </> in zone <global> on 
<rpool/ROOT/new-zfsBE>.
Populating file systems on boot environment <new-zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-cBc.mnt
updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive
Population of boot environment <new-zfsBE> successful.
Creation of boot environment <new-zfsBE> successful.

# lustatus
boot environment   Is         Active   Active     Can	    Copy 
Name               Complete   Now	  OnReboot   Delete	 Status 
------------------------------------------------------------------------ 
c0t0d0             yes       yes      yes        no         - 
new-zfsBE           yes       no       no        yes       -

# zfs list
NAME                        USED  AVAIL  REFER  MOUNTPOINT 
rpool                      9.29G  57.6G    20K  /rpool
rpool/ROOT                 5.38G  57.6G    18K  /rpool/ROOT
rpool/ROOT/zfsBE           5.38G  57.6G   551M  
rpool/ROOT/new-zfsBE       5.38G  57.6G   551M  /tmp/.alt.luupdall.110034
rpool/dump                 1.95G      -  1.95G  - 
rpool/swap                 1.95G      -  1.95G  - 

Agora é possível atualizar e ativar o novo ambiente de inicialização.

Neste exemplo, o novo ambiente de inicialização é atualizado utilizando o comando luupgrade a partir de uma imagem armazenada no local indicado com a opção -s.


# luupgrade -n zfsBE -u -s /net/install/export/s10/combined.s10
 51135 blocks 
miniroot filesystem is <lofs>
Mounting miniroot at 
</net/install/export/solaris_10/combined.solaris_10_wos
/Solaris_10/Tools/Boot> 
Validating the contents of the media 
</net/install/export/s10/combined.s10>. 
The media is a standard Solaris media. 
The media contains an operating system upgrade image. 
The media contains Solaris version <10_1008>. 
Constructing upgrade profile to use. 
Locating the operating system upgrade program. 
Checking for existence of previously scheduled Live 
Upgrade requests. 
Creating upgrade profile for BE <zfsBE>. 
Determining packages to install or upgrade for BE <zfsBE>. 
Performing the operating system upgrade of the BE <zfsBE>. 
CAUTION: Interrupting this process may leave the boot environment 
unstable or unbootable. 
Upgrading Solaris: 100% completed 
Installation of the packages from this media is complete. 
Adding operating system patches to the BE <zfsBE>. 
The operating system patch installation is complete. 
INFORMATION: The file /var/sadm/system/logs/upgrade_log on boot 
environment <zfsBE> contains a log of the upgrade operation. 
INFORMATION: The file var/sadm/system/data/upgrade_cleanup on boot 
environment <zfsBE> contains a log of cleanup operations required. 
INFORMATION: Review the files listed above. Remember that all 
of the files are located on boot environment <zfsBE>. 
Before you activate boot environment <zfsBE>, determine if any 
additional system maintenance is required or if additional media 
of the software distribution must be installed. 
The Solaris upgrade of the boot environment <zfsBE> is complete.

O novo ambiente de inicialização pode ser ativado a qualquer momento depois de sua criação.


# luactivate new-zfsBE
**********************************************************************

The target boot environment has been activated. It will be used when you 
reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You 
MUST USE either the init or the shutdown command when you reboot. If you 
do not use either init or shutdown, the system will not boot using the 
target BE.

**********************************************************************
In case of a failure while booting to the target BE, the following process 
needs to be followed to fallback to the currently working boot environment:

1. Enter the PROM monitor (ok prompt).

2. Change the boot device back to the original boot environment by typing:

     setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a

3. Boot to the original boot environment by typing:

     boot

**********************************************************************

Modifying boot archive service
Activation of boot environment <new-zfsBE> successful.

Reinicialize o sistema para o ambiente de inicialização ZFS.


# init 6
# svc.startd: The system is coming down.  Please wait.
svc.startd: 79 system services are now being stopped.
.
.
.

Se você retroceder para o ambiente de inicialização UFS, então é necessário importar novamente quaisquer conjuntos de armazenamento ZFS que foram criados no ambiente de inicialização ZFS, porque eles não estão automaticamente disponíveis no ambiente de inicialização UFS. Você verá mensagens semelhantes ao exemplo a seguir quando voltar para o ambiente de inicialização UFS.


# luactivate c0t0d0
WARNING: The following files have changed on both the current boot 
environment <new-zfsBE> zone <global> and the boot environment 
to be activated <c0t0d0>:
 /etc/zfs/zpool.cache
INFORMATION: The files listed above are in conflict between the current 
boot environment <zfsBE> zone <global> and the boot environment to be 
activated <c0t0d0>. These files will not be automatically synchronized 
from the current boot environment <new-zfsBE> when boot environment <c0t0d0>

Criando um ambiente de inicialização dentro do mesmo conjunto raiz ZFS

Se você possuir um conjunto raiz ZFS existente e deseja criar um novo ambiente de inicialização ZFS dentro deste conjunto, o procedimento a seguir lhe fornece as etapas. Depois da criação do ambiente de inicialização inativo, o novo ambiente de inicialização pode ser atualizado e ativado de acordo com a sua conveniência. A opção -p não é necessária quando você cria um ambiente de inicialização dentro do mesmo conjunto.

ProcedureComo criar um ambiente de inicialização ZFS dentro do mesmo conjunto raiz ZFS

  1. Antes de executar o Solaris Live Upgrade pela primeira vez, é necessário instalar os pacotes do Solaris Live Upgrade mais recentes a partir da mídia de instalação e instalar os patches listados no SunSolve Infodoc 206844. Pesquise pelo Infodoc 206844 (formalmente 72099) no site SunSolve.

    Os pacotes e patches mais recentes garantem que você possua todas as últimas correções de erros e novos recursos dessa versão. Assegure-se de que foram instalados todos os patches que são relevantes para o sistema antes de continuar para criar um novo ambiente de inicialização.

    As subetapas a seguir descrevem as etapas no SunSolve Infodoc 206844.


    Observação –

    Utilizar o Solaris Live Upgrade para criar os novos ambientes de inicialização ZFS exige, pelo menos, que a versão 10 10/08 do Solaris esteja instalada. Versões anteriores não possuem o software Solaris Live Upgrade e ZFS para efetuar as tarefas.


    1. Torne-se superusuário ou assuma uma função equivalente.


      Observação –

      Funções contêm autorizações e comandos privilegiados. Para mais informações sobre funções, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services.


    2. Do site SunSolve, siga as instruções no Infodoc 206844 para remover e adicionar pacotes Solaris Live Upgrade.

      Os três pacotes Solaris Live Upgrade, SUNWluu, SUNWlur e SUNWlucfg, incluem o software necessário para atualizar utilizando o Solaris Live Upgrade. Esses pacotes incluem o software existente, novos recursos e correções de erros. Se você não remover os pacotes existentes e instalar os novos pacotes no sistema antes de utilizar o Solaris Live Upgrade, a atualização para a versão de destino falha. O pacote SUMWlucfg é o novo iniciando com a versão 10 8/07 do Solaris. Se você estiver utilizando os pacotes Solaris Live Upgrade de uma versão anterior ao Solaris 10 8/07, não é necessário remover esse pacote.


      Observação –

      O pacote SUMWlucfg é o novo iniciando com a versão 10 8/07 do Solaris. Se você estiver utilizando os pacotes Solaris Live Upgrade de uma versão anterior, não é necessário removê-lo.



      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    3. Instale os novos pacotes do Solaris Live Upgrade. Para instruções, consulte  Instalando o Solaris Live Upgrade.

    4. Antes de executar o Solaris Live Upgrade, é necessário instalar os patches a seguir. Esses patches garantem que você possua todas as últimas correções de erros e novos recursos dessa versão.

      Assegure-se de que você possua a lista de patch mais atualizada consultando SunSolve. Pesquise pelo Infodoc 206844 (formalmente 72099) no site SunSolve.

      • Se você estiver armazenando os patches em um disco local, crie um diretório como /var/tmp/lupatches e baixe os patches para este diretório.

      • Obtenha a lista de patches a partir do site SunSolve .

      • Altere para o diretório do patch como neste exemplo.


        # cd /var/tmp/lupatches
        
      • Instale os patches com o comando patchadd.


        # patchadd -M path-to-patches patch_id patch_id
        

        path-to-patches é patch para o diretório de patch como /var/tmp/lupatches. patch_id é o número ou números de patch. Separe vários nomes de patch com um espaço.


        Observação –

        Os patches precisam ser aplicados na ordem especificada no Infodoc 206844.


      • Reinicialize o sistema se necessário. Certos patches necessitam de uma reinicialização para ser efetivados.

        apenas x86 : se o sistema não for inicializado o Solaris Live Upgrade falha.


        # init 6
        

        Agora, você possui os pacotes de patches necessários para uma criar com sucesso um novo ambiente de inicialização.

  2. Crie o novo ambiente de inicialização.


    # lucreate [-c zfsBE] -n new-zfsBE
    
    -c zfsBE

    Atribua o nome zfsBE para o ambiente de inicialização atual. Essa opção não é necessária e é utilizada apenas quando o primeiro ambiente de inicialização é criado. Se você executar o comando lucreate pela primeira vez e omitir a opção -c, o software cria um nome padrão.

    -n new-zfsBE

    Atribua o nome para o ambiente de inicialização a ser criado. O nome deve ser único no sistema.

    A criação do novo ambiente de inicialização é quase instantânea. Um instantâneo é criado de cada conjunto de dados no conjunto raiz ZFS e um clone é então criado de cada instantâneo. Instantâneos são espaços de disco muito eficientes e esse processo utiliza um espaço de disco mínimo. Quando o ambiente de inicialização for criado, é possível utilizar o comando luupgrade ou luactivate para atualizar ou ativar o novo ambiente de inicialização ZFS.

  3. (Opcional) Verifique se o ambiente de inicialização está concluído.

    O comando lustatus informa se a criação do ambiente de inicialização foi concluída e inicializada.


    # lustatus
    boot environment   Is        Active  Active     Can	    Copy 
    Name               Complete  Now	 OnReboot   Delete	 Status 
    ------------------------------------------------------------------------ 
    zfsBE               yes       yes     yes         no             -
    new-zfsBE           yes       no      no          yes            -
  4. (Opcional) Verifique as informações básicas do conjunto de dados no sistema.

    Neste exemplo, o conjunto raiz ZFS é nomeado rpool e o símbolo @ indica um instantâneo. Os novos pontos de montagem do ambiente de inicialização são temporários até que o comando luactivate seja executado. Os volumes /dump e /swap são compartilhados com o conjunto raiz ZFS e os ambientes de inicialização dentro do conjunto raiz.


    # zfs list
    NAME                                      USED  AVAIL  REFER  MOUNTPOINT 
    rpool                                    9.29G  57.6G    20K  /rpool 
    rpool/ROOT                               5.38G  57.6G    18K  /rpool/ROOT 
    rpool/ROOT/zfsBE                         5.38G  57.6G   551M  
    rpool/ROOT/zfsBE@new-zfsBE               66.5K      -   551M  -
    rpool/ROOT/new-zfsBE                     85.5K  57.6G   551M  /tmp/.alt.103197
    rpool/dump                               1.95G      -  1.95G  - 
    rpool/swap                               1.95G      -  1.95G  - 

    Agora é possível atualizar e ativar o novo ambiente de inicialização. Consulte Exemplo 13–2.


Exemplo 13–2 Criando um ambiente de inicialização dentro do mesmo conjunto raiz ZFS

Os comandos a seguir criam um novo ambiente de inicialização ZFS, new-zfsBE . A opção -p não é necessária porque o ambiente de inicialização está sendo criado dentro do mesmo conjunto raiz.


# lucreate [-c zfsBE] -n new-zfsBE
Analyzing system configuration.
Comparing source boot environment <zfsBE> file systems with the file
system(s) you specified for the new boot environment. Determining which
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Creating configuration for boot environment new-zfsBE.
Source boot environment is zfsBE.
Creating boot environment new-zfsBE.
Cloning file systems from boot environment zfsBE to create 
boot environment new-zfsBE.
Creating snapshot for <rpool> on <rpool> Creating clone for <rpool>. 
Setting canmount=noauto for <rpool> in zone <global> on <rpool>. 
Population of boot environment zfsBE successful on <rpool>.
# lustatus
boot environment   Is        Active  Active     Can	    Copy 
Name               Complete  Now	   OnReboot   Delete	 Status 
------------------------------------------------------------------------ 
zfsBE               yes       yes     yes         no          - 
new-zfsBE           yes       no      no          yes         -
# zfs list
NAME                                      USED  AVAIL  REFER  MOUNTPOINT 
rpool                                    9.29G  57.6G    20K  /rpool 
rpool/ROOT                               5.38G  57.6G    18K  /rpool/ROOT 
rpool/ROOT/zfsBE                         5.38G  57.6G   551M  
rpool/ROOT/zfsBE@new-zfsBE               66.5K      -   551M  - 
rpool/ROOT/new-zfsBE                     85.5K  57.6G   551M  /tmp/.alt.103197 
rpool/dump                               1.95G      -  1.95G  - 
rpool/swap                               1.95G      -  1.95G  - 

Agora é possível atualizar e ativar o novo ambiente de inicialização. Para um exemplo de atualização de um ambiente de inicialização ZFS, consulte Exemplo 13–1. Para mais exemplos da utilização do comando luupgrade consulte, Capítulo 5Atualizando com o Solaris Live Upgrade (Tarefas).


# luactivate new-zfsBE
**********************************************************************

The target boot environment has been activated. It will be used when you 
reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You 
MUST USE either the init or the shutdown command when you reboot. If you 
do not use either init or shutdown, the system will not boot using the 
target BE.

**********************************************************************
In case of a failure while booting to the target BE, the following process 
needs to be followed to fallback to the currently working boot environment:

1. Enter the PROM monitor (ok prompt).

2. Change the boot device back to the original boot environment by typing:

     setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a

3. Boot to the original boot environment by typing:

     boot

**********************************************************************

Modifying boot archive service
Activation of boot environment <new-zfsBE> successful.

Reinicialize o sistema para o ambiente de inicialização ZFS.


# init 6
# svc.startd: The system is coming down.  Please wait.
svc.startd: 79 system services are now being stopped.
.
.
.

Criando um ambiente de inicialização em um novo conjunto raiz

Se você possuir um conjunto raiz ZFS existente e deseja criar um novo ambiente de inicialização ZFS em um novo conjunto raiz, o procedimento a seguir fornece as etapas. Depois da criação do ambiente de inicialização inativo, o novo ambiente de inicialização pode ser atualizado e ativado de acordo com a sua conveniência. A opção -p é necessária para notar onde colocar o novo ambiente de inicialização. O conjunto raiz ZFS existente deve existir e estar em um segmento separado para ser inicializável e atualizável.

ProcedureComo criar um ambiente de inicialização em um novo conjunto raiz ZFS

  1. Antes de executar o Solaris Live Upgrade pela primeira vez, é necessário instalar os pacotes do Solaris Live Upgrade mais recentes a partir da mídia de instalação e instalar os patches listados no SunSolve Infodoc 206844. Pesquise pelo Infodoc 206844 (formalmente 72099) no site SunSolve.

    Os pacotes e patches mais recentes garantem que você possua todas as últimas correções de erros e novos recursos dessa versão. Assegure-se de que foram instalados todos os patches que são relevantes para o sistema antes de continuar para criar um novo ambiente de inicialização.

    As subetapas a seguir descrevem as etapas no SunSolve Infodoc 206844.


    Observação –

    Utilizar o Solaris Live Upgrade para criar os novos ambientes de inicialização ZFS exige, pelo menos, que a versão 10 10/08 do Solaris esteja instalada. Versões anteriores não possuem o software Solaris Live Upgrade e ZFS para efetuar as tarefas.


    1. Torne-se superusuário ou assuma uma função equivalente.


      Observação –

      Funções contêm autorizações e comandos privilegiados. Para mais informações sobre funções, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services.


    2. Do site SunSolve, siga as instruções no Infodoc 206844 para remover e adicionar pacotes Solaris Live Upgrade.

      Os três pacotes Solaris Live Upgrade, SUNWluu, SUNWlur e SUNWlucfg, incluem o software necessário para atualizar utilizando o Solaris Live Upgrade. Esses pacotes incluem o software existente, novos recursos e correções de erros. Se você não remover os pacotes existentes e instalar os novos pacotes no sistema antes de utilizar o Solaris Live Upgrade, a atualização para a versão de destino falha. O pacote SUMWlucfg é o novo iniciando com a versão 10 8/07 do Solaris. Se você estiver utilizando os pacotes Solaris Live Upgrade de uma versão anterior ao Solaris 10 8/07, não é necessário remover esse pacote.


      Observação –

      O pacote SUMWlucfg é o novo iniciando com a versão 10 8/07 do Solaris. Se você estiver utilizando os pacotes Solaris Live Upgrade de uma versão anterior, não é necessário removê-lo.



      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    3. Instale os novos pacotes do Solaris Live Upgrade. Para instruções, consulte  Instalando o Solaris Live Upgrade.

    4. Antes de executar o Solaris Live Upgrade, é necessário instalar os patches a seguir. Esses patches garantem que você possua todas as últimas correções de erros e novos recursos dessa versão.

      Assegure-se de que você possua a lista de patch mais atualizada consultando SunSolve. Pesquise pelo Infodoc 206844 (formalmente 72099) no site SunSolve.

      • Se você estiver armazenando os patches em um disco local, crie um diretório como /var/tmp/lupatches e baixe os patches para este diretório.

      • Obtenha a lista de patches a partir do site SunSolve .

      • Altere para o diretório do patch como neste exemplo.


        # cd /var/tmp/lupatches
        
      • Instale os patches com o comando patchadd.


        # patchadd -M path-to-patches patch_id patch_id
        

        path-to-patches é patch para o diretório de patch como /var/tmp/lupatches. patch_id é o número ou números de patch. Separe vários nomes de patch com um espaço.


        Observação –

        Os patches precisam ser aplicados na ordem especificada no Infodoc 206844.


      • Reinicialize o sistema se necessário. Certos patches necessitam de uma reinicialização para ser efetivados.

        apenas x86 : se o sistema não for inicializado o Solaris Live Upgrade falha.


        # init 6
        

        Agora, você possui os pacotes e os patches necessários para efetuar uma migração com sucesso.

  2. Crie um conjunto raiz ZFS.

    O conjunto raiz ZFS deve estar em um segmento único para ser inicializável e atualizável.


    # zpool create rpool2 c0t1d0s5
    
    rpool2

    Nomes do novo conjunto raiz ZFS.

    c0t1d0s5

    Especifica para colocar rpool2 no segmento inicializável, c0t1d0s5.

    Para obter informações sobre como criar um novo conjunto raiz, consulte Guia de administração do ZFS Oracle Solaris.

  3. Crie o novo ambiente de inicialização.


    # lucreate [-c zfsBE] -n new-zfsBE -p rpool2
    
    -c zfsBE

    Atribua o nome zfsBE para o ambiente de inicialização ZFS atual.

    -n new-zfsBE

    Atribua o nome para o ambiente de inicialização a ser criado. O nome deve ser único no sistema.

    -p rpool2

    Coloca o ambiente de inicialização raiz ZFS recém criado no conjunto raiz ZFS definido no rpool2.

    A criação do novo ambiente de inicialização ZFS pode demorar. Os dados do sistema de arquivos estão sendo copiados para o novo conjunto raiz ZFS. Quando o ambiente de inicialização inativo for criado, é possível utilizar o comando luupgrade ou luactivate para atualizar ou ativar o novo ambiente de inicialização ZFS.

  4. (Opcional) Verifique se o ambiente de inicialização está concluído.

    O comando lustatus informa se a criação do ambiente de inicialização foi concluída e inicializada.


    # lustatus
    boot environment   Is        Active  Active     Can	    Copy 
    Name               Complete  Now	 OnReboot   Delete	 Status 
    ------------------------------------------------------------------------ 
    zfsBE                       yes      yes     yes        no        - 
    new-zfsBE                   yes      no      no         yes        -
  5. (Opcional) Verifique as informações básicas do conjunto de dados no sistema.

    O exemplo a seguir exibe os nomes de todos os conjuntos de dados no sistema. O ponto de montagem listado para o novo ambiente de inicialização é temporário até que o comando luactivate seja executado. O novo ambiente de inicialização compartilha os volumes, rpool2/dump e rpool2/swap, com o ambiente de inicialização ZFS rpool2.


    # zfs list
    NAME                             USED    AVAIL   REFER   MOUNTPOINT 
    rpool2                           9.29G    57.6G     20K   /rpool2 
    rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
    rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M  /tmp/.new.luupdall.109859
    rpool2/dump                      3.99G        -   3.99G   - 
    rpool2/swap                      3.99G        -   3.99G   - 
    rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
    rpool/ROOT                       5.46G    57.6G     18K   legacy
    rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
    rpool/dump                       3.99G        -   3.99G   - 
    rpool/swap                       3.99G        -   3.99G   - 

    Agora é possível atualizar e ativar o novo ambiente de inicialização. Consulte Exemplo 13–3.


Exemplo 13–3 Criando um ambiente de inicialização em um novo conjunto raiz

Neste exemplo, um novo conjunto raiz ZFS, rpool, é criado em um segmento separado, C0t2d0s5. O comando lucreate cria um novo ambiente de inicialização ZFS, new-zfsBE. A opção -p é necessária porque o ambiente de inicialização está sendo criado em um conjunto raiz diferente.


# zpool create rpool C0t1d0s5
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT					             5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   - 

# lucreate -c rpool -n new-zfsBE -p rpool2
Analyzing system configuration.
Current boot environment is named <rpool>.
Creating initial configuration for primary boot environment <rpool>.
The device </dev/dsk/c0t0d0> is not a root device for any 
boot environment; cannot get BE ID.
PBE configuration successful: PBE name <rpool> PBE Boot 
Device </dev/dsk/rpool>.
Comparing source boot environment <rpool> file systems with 
the file system(s) you specified for the new boot environment. 
Determining which file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t0d0s0> is not a root device for any 
boot environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsBE>.
Source boot environment is <rpool>.
Creating boot environment <new-zfsBE>.
Creating file systems on boot environment <new-zfsBE>.
Creating <zfs> file system for </> in zone <global> on 
<rpool2/ROOT/new-zfsBE>.
Populating file systems on boot environment <new-zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </>.
Making boot environment <new-zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-cBc.mnt
updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive
Population of boot environment <new-zfsBE> successful.
Creation of boot environment <new-zfsBE> successful.

# lustatus
boot environment   Is        Active  Active     Can	    Copy 
Name               Complete  Now	OnReboot   Delete	 Status 
------------------------------------------------------------------------ 
zfsBE                yes      yes     yes        no        - 
new-zfsBE            yes      no      no         yes        -
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M   /tmp/.new.luupdall.109859
rpool2/dump                      3.99G        -   3.99G   - 
rpool2/swap                      3.99G        -   3.99G   - 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT                       5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   - 

Criando um ambiente de inicialização a partir de uma fonte diferente do sistema atualmente em execução

Se você possuir um conjunto raiz ZFS existente ou um ambiente de inicialização UFS que não está sendo utilizado atualmente como o ambiente de inicialização ativo, é possível utilizar o exemplo a seguir para criar o novo ambiente de inicialização a partir deste ambiente de inicialização. Depois da criação do novo ambiente de inicialização ZFS, o novo ambiente de inicialização pode ser atualizado e ativado de acordo com a sua conveniência.

Se você estiver criando um ambiente de inicialização a partir de uma fonte diferente do sistema atualmente em execução, é necessário utilizar o comando lucreate com a opção -s. A opção -s trabalha da mesma forma para o sistema de arquivos UFS. A opção -s fornece o caminho para o sistema de arquivos (/) raiz alternativo. Esse sistema de arquivos (/) raiz alternativo é a fonte para a criação do novo conjunto raiz ZFS. A raiz alternativa pode ser tanto um sistema de arquivos raiz (/) UFS quanto um conjunto raiz ZFS. O processo de cópia pode demorar um pouco, dependendo do sistema.

Os exemplos a seguir mostram como a opção -s é utilizada ao criar um ambiente de inicialização em outro conjunto raiz ZFS.


Exemplo 13–4 Como criar um ambiente de inicialização a partir de uma fonte diferente do sistema atualmente em execução

O comando a seguir cria um novo conjunto raiz ZFS a partir de um conjunto raiz ZFS existente. A opção -n atribui o nome para o ambiente de inicialização a ser criado, new-zfsBE. A opção -s especifica o ambiente de inicialização, rpool3, a ser utilizando como fonte da cópia em vez do atual ambiente de inicialização em execução. A opção -p especifica para colocar o novo ambiente de inicialização em rpool2.


# lucreate -n new-zfsBE -s rpool3 -p rpool2
# lustatus
boot environment   Is        Active  Active     Can	    Copy 
Name               Complete  Now	 OnReboot   Delete	 Status 
------------------------------------------------------------------------ 
zfsBE               yes      yes     yes        no         - 
zfsBE2              yes      no      no         yes        -
zfsBE3              yes      no      no         yes        -
new-zfsBE           yes      no      no         yes        -

# zfs list
NAME                            USED    AVAIL   REFER   MOUNTPOINT 
rpool2                         9.29G    57.6G     20K   /rpool2 
rpool2/ROOT/                   5.38G    57.6G     18K   /rpool2/ROOT 
rpool2/ROOT/new-zfsBE          5.38G    57.6G    551M   /tmp/.new.luupdall.109859
rpool2/dump                    3.99G        -   3.99G   - 
rpool2/swap                    3.99G        -   3.99G   - 
rpool3                         9.29G    57.6G     20K   /rpool2 
rpool3/ROOT/                   5.38G    57.6G     18K   /rpool2/ROOT 
rpool3/ROOT/zfsBE3             5.38G    57.6G   551M    /tmp/.new.luupdall.109859
rpool3/dump                    3.99G        -   3.99G   - 
rpool3/swap                    3.99G        -   3.99G   - 
prool                          9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT                     5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE               5.46G    57.6G   551M  
rpool/dump                     3.99G        -   3.99G   - 
rpool/swap                     3.99G        -   3.99G   -

Agora é possível atualizar e ativar o novo ambiente de inicialização.


Retrocedendo para um ambiente de inicialização ZFS

Se uma falha for detectada depois da atualização ou se o aplicativo não for compatível com um componente de atualização, é possível retroceder para o ambiente de inicialização original com o comando luactivate.

Quando você tiver migrado para um conjunto raiz ZFS a partir de um ambiente de inicialização UFS e decide então retroceder para o ambiente de inicialização UFS, é necessário importar de novo quaisquer conjuntos de armazenamento ZFS que foi criado no ambiente de inicialização ZFS. Esses conjuntos de armazenamento ZFS não estão automaticamente disponíveis no ambiente de inicialização UFS. Você verá mensagens semelhantes ao exemplo a seguir quando voltar para o ambiente de inicialização UFS.


# luactivate c0t0d0
WARNING: The following files have changed on both the current boot 
environment <new-ZFSbe> zone <global> and the boot environment 
to be activated <c0t0d0>: /etc/zfs/zpool.cache
INFORMATION: The files listed above are in conflict between the current 
boot environment <ZFSbe> zone <global> and the boot environment to be 
activated <c0t0d0>. These files will not be automatically synchronized 
from the current boot environment <new-ZFSbe> when boot 
environment <c0t0d0>

Para obter exemplos de retroceder para o ambiente de inicialização original, consulte Capítulo 6Recuperação de falha: retrocesso para o ambiente de inicialização original (tarefas).

Recursos adicionais

Para obter informações adicionais sobre os tópicos incluídos neste capítulo, consulte Tabela 13–1.

Tabela 13–1 Recursos adicionais

Recurso  

Local 

Para obter informações sobre o ZFS, incluindo uma visão geral, planejamento e instruções passo-a-passo 

Guia de administração do ZFS Oracle Solaris

Para utilizar o Solaris Live Upgrade em um sistema com sistemas de arquivos UFS 

Parte I, Atualizando com o Solaris Live Upgrade deste livro

Capítulo 14 Solaris Live Upgrade para ZFS com regiões não-globais instaladas

Este capítulo fornece uma vista geral e procedimentos passo-a-passo para a migração de um sistema de arquivos raiz UFS (/) para um grupo raiz ZFS.


Observação –

Migrar de um sistema de arquivos raiz UFS (/) para um grupo raiz ZFS ou criar ambientes de inicialização ZFS com o Solaris Live Upgrade é novidade na versão Solaris 10 10/08. Ao executar um Solaris Live Upgrade para um sistema de arquivos UFS, ambos os parâmetros de linha de comando e operação do Solaris Live Upgrade permanecem inalterados. Para executar um Solaris Live Upgrade em um sistema com os sistemas de arquivos UFS, consulte Parte I, Atualizando com o Solaris Live Upgrade deste livro.


Criando um ambiente de inicialização ZFS em um sistema com regiões não-globais instaladas (vista geral e planejamento)

É possivel utilizar o Solaris Live Upgrade para migrar seu sistema de arquivos raiz UFS (/) com regiões não-globais instaladas em um grupo raiz ZFS. Todas as regiões não-globais que estão associados com o sistema de arquivos também são copiadas para o novo ambiente de inicialização. São suportados os seguintes cenários de migração de regiões não-globais:

Sistema de arquivos raiz pré-migração e combinação de região  

Sistema de arquivos raiz pós-migração e combinação de região 

O sistema de arquivos raiz UFS com o diretório raiz de região não global no sistema de arquivos UFS 

O sistema de arquivos raiz UFS com o diretório raiz de região não global em um grupo raiz ZFS 

 

Grupo raiz ZFS com o diretório de raiz de região não-global no grupo raiz ZFS 

 

Grupo raiz ZFS com o diretório raiz de região não global em um sistema de arquivos UFS 

Sistema de arquivos raiz UFS com uma raiz de região não global em um grupo raiz ZFS 

Grupo raiz ZFS com a raiz de região não-global em um grupo raiz ZFS 

 

Sistema de arquivos raiz UFS com a raiz de região não global no grupo raiz ZFS 

Grupo raiz ZFS com o diretório de raiz de região não-global no grupo raiz ZFS 

Grupo raiz ZFS com o diretório de raiz de região não-global no grupo raiz ZFS 

Em um sistema com um sistema de arquivos raiz UFS ( /) e regiões não-globais instaladas, as regiões não-globais são migradas se a região estiver em um sistema de arquivos não compartilhado como parte da migração de UFS para ZFS. Ou a região é clonada quando estiver atualizando dentro do mesmo grupo ZFS. Se uma região não global existe em um sistema de arquivos compartilhado UFS, para migrar para outro grupo raiz ZFS, é necessário primeiro atualizar a região não global, como nas versões anteriores do Solaris.

Migrando a partir de um sistema de arquivos raiz UFS (/) com regiões não-globais instaladas no grupo raiz ZFS (Tarefas)

Este capítulo fornece instruções passo-a-passo para migrar de um sistema de arquivos raiz UFS (/) a um grupo raiz ZFS em um sistema com regiões não-globais instaladas. Nenhuma região não global está em um sistema de arquivos compartilhado no sistema de arquivos UFS.

ProcedureComo migrar de um sistema de arquivos UFS para um grupo raiz ZFS em um sistema com regiões não-globais

O comando lucreate cria um ambiente de inicialização de um grupo raiz ZFS a partir de um sistema de arquivos de raiz UFS (/). Um grupo raiz ZFS deve existir antes da operação lucreate e deve ser criado com segmentos em vez dos discos inteiros a serem atualizados e inicializados. Este procedimento mostra como uma região não global existente associada com o sistema de arquivos raiz UFS (/) é copiado para o novo ambiente de inicialização em um grupo raiz ZFS.

No exemplo a seguir, a região não global existente, myzone, tem sua raiz de região não global em um sistema de arquivos raiz UFS (/). A região zzone possui sua raiz de região em um sistema de arquivos ZFS no grupo de armazenamento do ZFS existente, pool. O Solaris Live Upgrade é utilizado para migrar um ambiente de inicialização UFS, c2t2d0s0, a um ambiente de inicialização ZFS, zfs2BE. A região myzone com base em UFS migra para um novo grupo de armazenamento do ZFS, mpool, que é criado antes da operação com o Solaris Live Upgrade. A região com base em ZFS, não global, zzone, é clonada mas retida no grupo ZFS pool e migrada para o novo ambiente de inicializaçãozfs2BE.

  1. Complete as etapas a seguir na primeira vez que executar um Solaris Live Upgrade.


    Observação –

    Utilizando o Solaris Live Upgrade para criar novos ambientes de inicialização ZFS requer pelo menos que a versão Solaris 10 10/08 seja instalada. As versões anteriores não possuem o ZFS e o software Solaris Live Upgrade para executar as tarefas.


    1. Exclua os pacotes existentes do Solaris Live Upgrade em seu sistema, se necessário. Se estiver atualizando para uma nova versão, é necessário instalar os pacotes a partir dessa versão.

      Os três pacotes Solaris Live Upgrade, SUNWluu, SUNWlur eSUNWlucfg, compreendem o software necessário para fazer atualizações utilizando o Solaris Live Upgrade. Estes pacotes incluem o software existente, novos recursos e correções de erros. Se não remover os pacotes existentes e instalar os novos pacotes em seu sistema antes de utilizar o Solaris Live Upgrade, atualizar para a versão de destino irá causar falha.


      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    2. Instale os novos pacotes do Solaris Live Upgrade a partir da versão para a qual está atualizando. Para obter instruções, consulte  Instalando o Solaris Live Upgrade.

    3. Antes de instalar ou executar o Solaris Live Upgrade, é solicitado a instalar as seguintes correções. Essas correções garantem que tenha todas as últimas correções de bugs e novos recursos na versão.

      Assegure-se de que você tenha a lista de correção mais recentemente atualizada consultando SunSolve. Pesquise por Infodoc 206844 (antigamente, 72099) no site SunSolve.

      • Torne-se superusuário ou assuma uma função equivalente.


        Observação –

        Funções contêm autorizações e comandos privilegiados. Para mais informações sobre funções, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services .


      • Se estiver armazenando as correções em um disco local, crie um diretório tal como /var/tmp/lupatches e faça download das correções para esse diretório.

      • A partir do site SunSolve , obtenha a lista de correções.

      • Altere o diretório da correção.


        # cd /var/tmp/lupatches
        
      • Instale as correções com o comando patchadd.


        # patchadd patch_id
        

        patch_id é o número ou números das correções. Separe vários nomes de correção com um espaço.


        Observação –

        As correções devem ser aplicadas na ordem em que são especificadas na Infodoc 206844.


      • Reinicialize o sistema se necessário. Determinadas correções exigem uma reinicialização para tornarem-se efetivas.

        apenas x86: é necessário o reinicializar o sistema ou Solaris Live Upgrade irá falhar.


        # init 6
        
  2. Crie um grupo raiz ZFS.

    O grupo raiz ZFS deve estar em um único segmento a ser inicializado e atualizado.


    # zpool create rpool c3t0d0s0
    

    Neste exemplo, o nome do novo ZFS a ser criado é rpool . O grupo é criado em um segmento inicializável,c3t0d0s0.

    Para obter informações sobre como criar um novo grupo raiz, consulte o Guia de administração do ZFS Oracle Solaris.

  3. Migre seu sistema de arquivos raiz USF (/) para o novo grupo raiz ZFS.


    # lucreate [-c ufsBE] -n new-zfsBE -p rpool
    
    -c ufsBE

    Atribui o nome ufsBE ao atual ambiente de inicialização UFS. Esta opção não é necessária e é utilizada apenas quando o primeiro ambiente de inicialização é criado. Se executar o comando lucreate pela primeira vez e omitir a opção -c, o software cria um nome padrão por você.

    -n new-zfsBE

    Atribui o nome new-zfsBE ao ambiente de inicialização a ser criado. O nome deve ser único no sistema.

    -p rpool

    Coloque o recém-criado sistema de arquivos raiz ZFS (/) no grupo raiz ZFS definido em rpool.

    Todas as regiões não-globais e não compartilhadas são copiadas para o novo ambiente de inicialização junto com os com sistemas críticos de arquivos. A criação do novo ambiente de inicialização ZFS pode levar algum tempo. Os dados do sistema de arquivos UFS estão sendo copiados para o grupo raiz ZFS. Quando o ambiente de inicialização inativo foi criado, é possivel utilizar o comando luupgrade ou luactivate para atualizar ou ativar o novo ambiente de inicialização ZFS.

  4. (Opcional) Verifique se o ambiente de inicialização está concluído.

    O comando lustatus informa se a criação do ambiente de inicialização está completa e inicializável.


    # lustatus
    boot environment   Is         Active   Active     Can	    Copy 
    Name               Complete   Now	  OnReboot   Delete	 Status 
    ------------------------------------------------------------------------ 
    ufsBE               yes       yes      yes        no         - 
    new-zfsBE           yes       no       no        yes         -
  5. (Opcional) Verifique o conjunto de informações básicas sobre o sistema.

    O comando list exibe os nomes de todos os conjuntos de dados no sistema. Neste exemplo, rpool é o nome do grupo ZFS e new-zfsBE é o nome do recém-criado ambiente de inicialização ZFS.


    # zfs list
    NAME                        USED  AVAIL  REFER  MOUNTPOINT 
    rpool                      9.29G  57.6G    20K  /rpool
    rpool/ROOT                 5.38G  57.6G    18K  /rpool/ROOT
    rpool/ROOT/new-zfsBE       5.38G  57.6G   551M  /tmp/.alt.luupdall.110034
    rpool/dump                 1.95G      -  1.95G  - 
    rpool/swap                 1.95G      -  1.95G  - 

    Os pontos de montagem listados para o novo ambiente de inicialização são temporários até que o comando luactivate seja executado. Os volumes /dump e /swap não são compartilhados com o ambiente original de inicialização UFS, mas são compartilhadas dentro do grupo raiz ZFS e ambientes de inicialização dentro do grupo raiz.


Exemplo 14–1 Migrando de um sistema de arquivo raiz UFS (/) com regiões não-globais instaladas no grupo raiz ZFS

No exemplo a seguir, a região não global existente, myzone, possui sua raiz de região não global em um sistema de arquivos raiz UFS (/). A região zzone possui sua raiz de região em um sistema de arquivos ZFS no grupo de armazenamento ZFS existente, pool. O Solaris Live Upgrade é utilizado para migrar um ambiente de inicialização UFS, c2t2d0s0, a um ambiente de inicialização ZFS, zfs2BE. A região myzone com base em UFS migra para um novo grupo de armazenamento ZFS, mpool, que é criado antes da operação com o Solaris Live Upgrade. A região com base em ZFS, não global, zzone, é clonada, mas mantida no grupo ZFSpool e migrada para o novo ambiente de inicialização zfs2BE.


# zoneadm list -iv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   - myzone           installed  /zones/myzone                  native   shared
   - zzone            installed  /pool/zones                    native   shared

# zpool create mpool mirror c3t0d0s0 c4td0s0
# lucreate -c c1t2d0s0 -n zfs2BE -p mpool
Analyzing system configuration.
No name for current boot environment.
Current boot environment is named <c1t2d0s0>.
Creating initial configuration for primary boot environment <c1t2d0s0>.
The device </dev/dsk/c1t2d0s0> is not a root device for any 
boot environment; cannot get BE ID.
PBE configuration successful: PBE name <c1t2d0s0> PBE Boot Device 
</dev/dsk/c1t2d0s0>.
Comparing source boot environment <c1t2d0s0> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot
environment; cannot get BE ID.
Creating configuration for boot environment <zfsBE>.
Source boot environment is <c1t2d0s0>.
Creating boot environment <zfsBE>.
Creating file systems on boot environment <zfsBE>.
Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>.
Populating file systems on boot environment <zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-cBc.mnt
updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive
Population of boot environment <zfsBE> successful.
Creation of boot environment <zfsBE> successful.

Quando a operação lucreate for concluída, utilize o comando lustatus para visualizar o status do ambiente de inicialização como neste exemplo.


# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
c1t2d0s0                   yes      yes    yes       no     -         
zfsBE                      yes      no     no        yes    -         

# zoneadm list -iv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   - myzone           installed  /zones/myzone                  native   shared
   - zzone            installed  /pool/zones                    native   shared

Em seguida, utilize o comandoluactivate para ativar o novo ambiente de inicialização ZFS. Por exemplo:


# luactivate zfsBE
**********************************************************************

The target boot environment has been activated. It will be used when you 
reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You 
MUST USE either the init or the shutdown command when you reboot. If you 
do not use either init or shutdown, the system will not boot using the 
target BE.

**********************************************************************
In case of a failure while booting to the target BE, the following process 
needs to be followed to fallback to the currently working boot environment:

1. Enter the PROM monitor (ok prompt).

2. Change the boot device back to the original boot environment by typing:

     setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a

3. Boot to the original boot environment by typing:

     boot

**********************************************************************

Modifying boot archive service
Activation of boot environment <ZFSbe> successful.

Reinicialize o sistema para o ZFS BE.


# init 6
# svc.startd: The system is coming down.  Please wait.
svc.startd: 79 system services are now being stopped.
.
.
.

Confirme o novo ambiente de inicialização e o status das regiões migradas como neste exemplo.


# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
c1t2d0s0                   yes      yes    yes       no     -         
zfsBE                      yes      no     no        yes    -         

Se retroceder para o ambiente de inicialização UFS, então será necessário importar novamente os grupos de armazenamento ZFS que foram criados no ambiente de inicialização ZFS porque eles não estão automaticamente disponíveis no ambiente de inicialização UFS. Você verá mensagens semelhantes à seguinte quando você voltar para o ambiente de inicialização UFS.


# luactivate c1t2d0s0
WARNING: The following files have changed on both the current boot 
environment <ZFSbe> zone <global> and the boot environment to be activated <c1t2d0s0>:
 /etc/zfs/zpool.cache
INFORMATION: The files listed above are in conflict between the current 
boot environment <ZFSbe> zone <global> and the boot environment to be 
activated <c1t2d0s0>. These files will not be automatically synchronized 
from the current boot environment <ZFSbe> when boot environment <c1t2d0s0>

Recursos adicionais

Para obter informações adicionais sobre os temas incluídos neste capítulo, consulte os recursos listados no Tabela 14–1.

Tabela 14–1 Recursos adicionais

Recurso  

Local 

Para obter informações sobre as regiões não-globais, incluindo a vista geral, planejamento e instruções passo-a-passo 

Guia de administração do sistema: gerenciamento de recursos Oracle Solaris Containers e Oracle Solaris Zones

Para informações ZFS, incluindo a vista geral, planejamento e instruções passo-a-passo 

Guia de administração do ZFS Oracle Solaris

Para obter informações sobre como utilizar o Solaris Live Upgrade em um sistema com os sistemas de arquivos UFS 

Parte I, Atualizando com o Solaris Live Upgrade of this book, including Capítulo 8Atualizando o Solaris OS em um sistema com regiões não globais instaladas