Ignorar Links de Navegao | |
Sair do Modo de Exibio de Impresso | |
Guia de administração do ZFS Oracle Solaris |
1. Sistema de arquivos Oracle Solaris ZFS (introdução)
2. Introdução ao ZFS do Oracle Solaris
3. Diferenças entre o sistema de arquivos tradicional e o ZFS do Oracle Solaris
4. Gerenciando conjuntos de armazenamento ZFS do Oracle Solaris
5. Instalando e inicializando um sistema de arquivos raiz ZFS do Oracle Solaris
Instalando e inicializando um sistema de arquivos ZFS do Oracle Solaris (visão geral)
Requisitos de instalação do e Oracle Solaris Live Upgrade para suporte ZFS
Requisitos da versão do Oracle Solaris
Requisitos gerais do pool de armazenamento ZFS
Requisitos de espaço de disco para grupos de armazenamento ZFS
Requisitos da configuração pool de armazenamento ZFS
Instalação de um sistema de arquivos raiz ZFS (instalação inicial do Oracle Solaris)
Como migrar um pool raiz ZFS espelhado (pós-instalação)
Instalando um sistema de arquivos raiz ZFS (instalação de arquivo do Oracle Solaris Flash)
Instalando um sistema de arquivos raiz ZFS (Instalação com JumpStart)
Palavras-chave do JumpStart para ZFS
Exemplos de perfil do JumpStart para ZFS
Migrating to a ZFS Root File System or Updating a ZFS Root File System (Live Upgrade)
Problemas de migração ZFS com o Live Upgrade
Using Live Upgrade to Migrate or Update a ZFS Root File System (Without Zones)
Uso do Live Upgrade para migrar ou atualizar um sistema com regiões (Solaris 10 10/08)
Como configurar um sistema de arquivos raiz ZFS com raízes de região em ZFS (Solaris 10 10/08)
ZFS suportado com informações de configuração de raiz da região (pelo menos Solaris 10 5/09)
Suporte do ZFS para dispositivos de intercâmbio e dump
Ajustando os tamanhos dos dispositivos de permuta e despejo ZFS
Solução de problemas para dispositivo de despejo ZFS
Inicializando a partir de um sistema de arquivos raiz ZFS
Inicializando a partir de um disco alternativo em um pool raiz ZFS espelhado
SPARC: inicializando a partir de um sistema de arquivos raiz ZFS
x86: inicializando a partir de um sistema de arquivos raiz ZFS
Como resolver problemas de ponto de montagem ZFS
Inicialização para fins de recuperação em um ambiente raiz ZFS
Como inicializar o ZFS no modo à prova de falhas
Como inicializar o ZFS de uma mídia alternativa
Recuperando o pool raiz ZFS ou instantâneos do pool raiz
Como substituir um disco no pool raiz ZFS
Como criar instantâneos do pool raiz
How to Re-create a ZFS Root Pool and Restore Root Pool Snapshots
Como reverter os instantâneos do pool raiz a partir da inicialização à prova de falhas
6. Gerenciando sistemas de arquivos ZFS do Oracle Solaris
7. Trabalhando com instantâneos e clones do ZFS do Oracle Solaris
8. Uso de ACLs e atributos para proteger arquivos ZFS do Oracle Solaris
9. Administração delegada do ZFS do Oracle Solaris
10. Tópicos avançados do ZFS do Oracle Solaris
11. Solução de problemas e conjunto de recuperação do Oracle Solaris ZFS
Os recursos relacionados do Live Upgrade estão disponíveis e, se estiverem relacionados aos componentes UFS, funcionam como nas versões anteriores do .
Estão disponíveis os recursos seguintes:
Migração do BE UFS para BE ZFS
Ao migrar o sistema de arquivos raiz UFS para um sistema de arquivos raiz ZFS, você deve designar um pool de armazenamento do ZFS existente com a opção -p.
Se o sistema de arquivos raiz UFS tiver componentes em diferentes faixas, eles são migrados para o pool raiz ZFS.
No Oracle Solaris versão 10 8/11, você pode especificar um sistema de arquivos separado /var ao migrar seu sistema de arquivos raiz UFS para um sistema de arquivos raiz ZFS
O processo básico para migrar de um sistema de arquivos raiz UFS para um sistema de arquivos raiz ZFS é o seguinte:
Instale os patches necessários do Live Upgrade, se necessário.
Instale uma versão atual do Oracle Solaris 10 (Solaris 10 10/08 para Oracle Solaris 10 8/11) ou utilize o programa de atualização padrão para atualizar de uma versão anterior do Oracle Solaris 10 em qualquer sistema suportado com base em SPARC ou x 86.
Quando estiver executando o Solaris 10 10/08, crie um conjunto de armazenamento ZFS para o sistema de arquivos raiz ZFS.
Use o Live Upgrade para migrar o sistema de arquivos raiz UFS para um sistema de arquivos raiz ZFS.
Ative o BE do ZFS com o comando luactivate.
Correção ou atualização de um BE ZFS
É possível utilizar o comando luupgrade para corrigir ou atualizar um BE ZFS. Você também pode usar luupgrade para atualizar um BE ZFS alternativo com um arquivo flash ZFS. Para obter informações, consulte o Exemplo 5-8.
O Live Upgrade pode utilizar os recursos de clone e instantâneo ZFS ao criar um BE do ZFS no mesmo conjunto. Consequentemente, a criação do ambiente de inicialização é muito mais rápida do que nas versões anteriores.
Suporte para migração de região– É possível migrar um sistema com regiões, mas as configurações suportadas são limitadas no Solaris versão 10 10/08. Mais configurações de regiões são suportadas a partir da versão do Solaris 10 5/09. Para obter mais informações, consulte as seguintes seções:
Se for migrar para um sistema de arquivos raiz ZFS sem regiões, consulte Using Live Upgrade to Migrate or Update a ZFS Root File System (Without Zones).
Para informações detalhadas sobre a instalação do e os recursos do Oracle Solaris Live Upgrade, consulte Oracle Guia de instalação do Solaris 10 9/10: Solaris Live Upgrade e planejamento da atualização.
Para informações sobre requisitos do ZFS e do Live Upgrade, consulte Requisitos de instalação do e Oracle Solaris Live Upgrade para suporte ZFS.
Revise a lista de problemas a seguir antes de utilizar o Live Upgrade para migrar o sistema de arquivos raiz UFS para um ZFS:
A opção de atualização padrão da GUI de instalação do Oracle Solaris não está disponível para migração de um sistema de arquivos raiz UFS para um sistema de arquivos raiz ZFS. Para migrar de um sistema de arquivos UFS, você deve usar o Live Upgrade.
Você deve criar o pool de armazenamento do ZFS que será usado para a inicialização antes da operação com o Live Upgrade. Além disso, devido às limitações atuais da inicialização, o pool raiz ZFS deve ser criado com faixas em vez de discos inteiros. Por exemplo:
# zpool create rpool mirror c1t0d0s0 c1t1d0s0
Antes de criar o novo conjunto, certifique-se de que os discos a serem utilizados no grupo tenham uma legenda SMI (VTOC) em vez de uma legenda EFI. Se o disco for remarcado com uma legenda SMI, certifique-se de que o processo de rotulação não altera o esquema de particionamento. Na maioria dos casos, toda capacidade do disco deve estar nos segmentos destinados ao conjunto raiz.
Não é possível utilizar o Oracle Solaris Live Upgrade para criar um BE do UFS a partir de um BE do ZFS. Se migrar o BE do UFS para um BE do ZFS e reter o BE do UFS, você pode inicializar tanto do BE do UFS quanto do BE do ZFS.
Não renomeie os ambientes de inicialização do ZFS com o comando zfs rename, porque o Live Upgrade não pode detectar a alteração de nome. Os comando subseqüentes, como ludelete, falharão. De fato, não renomeie os pools ou sistemas de arquivos ZFS se tiver BEs que deseja continuar usando.
Ao criar um ambiente de inicialização alternativo que seja um clone do ambiente de inicialização primário, você não pode usar as opções -f, -x, -y, - Y e -z para incluir ou excluir arquivos de tal ambiente de inicialização primário. É possível usar as opções de inclusão e exclusão definidas nos seguintes casos:
UFS -> UFS UFS -> ZFS ZFS -> ZFS (different pool)
Embora seja possível usar o Live Upgrade para atualizar um sistema de arquivos raiz UFS para um ZFS, não é possível usá-lo para atualizar sistemas de arquivos não raiz ou compartilhados.
Não é possível usar o comando lu para criar e migrar um sistema de arquivos raiz ZFS.
Os exemplos a seguir mostram como migrar um sistema de arquivos raiz UFS para um sistema de arquivos raiz ZFS e como atualizar um sistema de arquivos raiz ZFS.
Se for migrar ou atualizar um sistema com regiões, consulte as seguintes seções:
Exemplo 5-4 Usando o Live Upgrade para migrar um sistema de arquivos raiz UFS para um sistema de arquivos raiz ZFS
O exemplo seguinte mostra como migrar um sistema de arquivos raiz ZFS de um sistema de arquivos raiz UFS. O BE atual, ufsBE, que contém um sistema de arquivos raiz UFS, é identificado pela opção -c. Se a opção - c não for incluída, o nome do BE atual será, por padrão, o nome do dispositivo. O novo BE, zfsBE, é identificado pela opção -n. Um pool de armazenamento ZFS deve existir para que a operação lucreate seja executada.
O conjunto de armazenamento ZFS deve ser criado com segmentos em vez de com um disco inteiro para que possa ser atualizável e inicializável. Antes de criar o novo grupo, certifique-se de que os discos a serem utilizados no grupo tenham uma legenda SMI (VTOC) em vez de uma legenda EFI. Se o disco for remarcado com uma legenda SMI, certifique-se de que o processo de rotulação não altera o esquema de particionamento. Na maioria dos casos, toda capacidade do disco deve estar nos segmentos destinados ao conjunto raiz.
# zpool create rpool mirror c1t2d0s0 c2t1d0s0 # lucreate -c ufsBE -n zfsBE -p rpool Analyzing system configuration. No name for current boot environment. Current boot environment is named <ufsBE>. Creating initial configuration for primary boot environment <ufsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <ufsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t2d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <ufsBE>. Creating boot environment <zfsBE>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Populating file systems on boot environment <zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </rpool/ROOT>. Creating compare database for file system </>. Updating compare databases on boot environment <zfsBE>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-qD.mnt updating /.alt.tmp.b-qD.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful.
Após a operação com lucreate ter terminado, use o comando lustatus para exibir o status do BE. Por exemplo:
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes yes yes no - zfsBE yes no no yes -
Em seguida, consulte a lista de componentes do ZFS. Por exemplo:
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.17G 59.8G 95.5K /rpool rpool/ROOT 4.66G 59.8G 21K /rpool/ROOT rpool/ROOT/zfsBE 4.66G 59.8G 4.66G / rpool/dump 2G 61.8G 16K - rpool/swap 517M 60.3G 16K -
Depois, use o comandoluactivate para ativar o novo BE do ZFS. Por exemplo:
# luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. ********************************************************************** The target boot environment has been activated. It will be used when you reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You MUST USE either the init or the shutdown command when you reboot. If you do not use either init or shutdown, the system will not boot using the target BE. ********************************************************************** . . . Modifying boot archive service Activation of boot environment <zfsBE> successful.
Depois, reinicialize o sistema para o BE do ZFS.
# init 6
Comprove que o BE do ZFS está ativo.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes no no yes - zfsBE yes yes yes no -
Se voltar ao BE do UFS, você terá que reimportar os conjuntos de armazenamento ZFS que foram criados enquanto o BE do ZFS estava sendo inicializado, porque tais grupos não estão automaticamente disponíveis no BE do UFS.
Se o BE do UFS já não for mais necessário, você pode removê-lo com o comando ludelete.
Exemplo 5-5 Using Live Upgrade to Create a ZFS BE From a UFS BE (With a Separate /var)
No Oracle Solaris versão 10 8/11, você pode usar a opção lucreate - D para identificar que você deseja um sistema de arquivos /var separado criado ao migrar um sistema de arquivos raiz UFS para um sistema de arquivos raiz ZFS. No exemplo a seguir, o BE UFS existente é migrado para um BE ZFS com um sistema de arquivos /var separado.
# lucreate -n zfsBE -p rpool -D /var Determining types of file systems supported Validating file system requests Preparing logical storage devices Preparing physical storage devices Configuring physical storage devices Configuring logical storage devices Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <c0t0d0s0>. Current boot environment is named <c0t0d0s0>. Creating initial configuration for primary boot environment <c0t0d0s0>. INFORMATION: No BEs are configured on this system. The device </dev/dsk/c0t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <c0t0d0s0> PBE Boot Device </dev/dsk/c0t0d0s0>. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c0t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <c0t0d0s0>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Creating <zfs> file system for </var> in zone <global> on <rpool/ROOT/zfsBE/var>. Populating file systems on boot environment <zfsBE>. Analyzing zones. Mounting ABE <zfsBE>. Generating file list. Copying data from PBE <c0t0d0s0> to ABE <zfsBE> 100% of filenames transferred Finalizing ABE. Fixing zonepaths in ABE. Unmounting ABE <zfsBE>. Fixing properties on ZFS datasets in ABE. Reverting state of zones in PBE <c0t0d0s0>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-iaf.mnt updating /.alt.tmp.b-iaf.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful. # luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. . . . Modifying boot archive service Activation of boot environment <zfsBE> successful. # init 6
Revise os sistemas de arquivos ZFS recém-criados. Por exemplo:
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.29G 26.9G 32.5K /rpool rpool/ROOT 4.76G 26.9G 31K legacy rpool/ROOT/zfsBE 4.76G 26.9G 4.67G / rpool/ROOT/zfsBE/var 89.5M 26.9G 89.5M /var rpool/dump 512M 26.9G 512M - rpool/swap 1.03G 28.0G 16K -
Exemplo 5-6 Usando o Live Upgrade para criar um BE do ZFS a partir de um BE do ZFS
A criação de um BE do ZFS a partir de um BE do ZFS no mesmo pool é muito rápida porque esta operação usa os recursos de instantâneos e clones do ZFS. Se o ambiente de inicialização atual estiver no mesmo pool ZFS, a opção -p é omitida.
Se possuir vários BEs de ZFS, faça o seguinte para selecionar a partir de qual BE inicializar:
SPARC: É possível usar o comando boot -L para identificar os BEs disponíveis. Em seguida, selecione um BE do qual inicializar usando o comando boot -Z.
x86: você pode selecionar um BE do menu GRUB.
Para obter mais informações, consulte o Exemplo 5-12.
# lucreate -n zfs2BE Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <zfsBE>. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful.
Exemplo 5-7 Atualização do BE do ZFS (luupgrade)
Você pode atualizar o ambiente de inicialização ZFS com correções ou pacotes adicionais.
O processo básico é:
Crie um BE alternativo com o comando lucreate.
Ative e inicialize a partir do BE alternativo.
Atualize o BE principal do ZFS com o comando luupgrade para adicionar pacotes ou patches.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes no no yes - zfs2BE yes yes yes no - # luupgrade -p -n zfsBE -s /net/system/export/s10up/Solaris_10/Product SUNWchxge Validating the contents of the media </net/install/export/s10up/Solaris_10/Product>. Mounting the BE <zfsBE>. Adding packages to the BE <zfsBE>. Processing package instance <SUNWchxge> from </net/install/export/s10up/Solaris_10/Product> Chelsio N110 10GE NIC Driver(sparc) 11.10.0,REV=2006.02.15.20.41 Copyright (c) 2010, Oracle and/or its affiliates. All rights reserved. This appears to be an attempt to install the same architecture and version of a package which is already installed. This installation will attempt to overwrite this package. Using </a> as the package base directory. ## Processing package information. ## Processing system information. 4 package pathnames are already properly installed. ## Verifying package dependencies. ## Verifying disk space requirements. ## Checking for conflicts with packages already installed. ## Checking for setuid/setgid programs. This package contains scripts which will be executed with super-user permission during the process of installing this package. Do you want to continue with the installation of <SUNWchxge> [y,n,?] y Installing Chelsio N110 10GE NIC Driver as <SUNWchxge> ## Installing part 1 of 1. ## Executing postinstall script. Installation of <SUNWchxge> was successful. Unmounting the BE <zfsBE>. The package add to the BE <zfsBE> completed.
Ou você pode criar um novo BE para atualizar para uma versão mais recente do Oracle Solaris. Por exemplo:
# luupgrade -u -n newBE -s /net/install/export/s10up/latest
Onde a opção -s especifica a localização de um meio de instalação do Solaris.
Exemplo 5-8 Criação de um BE ZFS com um arquivo Flash ZFS (luupgrade )
No Oracle Solaris versão 10 8/11, você pode usar o comando luupgrade para criar um BE ZFS a partir de um arquivo flash ZFS existente. O processo básico realiza-se da seguinte forma:
Crie um arquivo flash xde um sistema mestre com um BE ZFS.
Por exemplo:
master-system# flarcreate -n s10zfsBE /tank/data/s10zfsflar Full Flash Checking integrity... Integrity OK. Running precreation scripts... Precreation scripts done. Determining the size of the archive... The archive will be approximately 4.67GB. Creating the archive... Archive creation complete. Running postcreation scripts... Postcreation scripts done. Running pre-exit scripts... Pre-exit scripts done.
Disponibilize o arquivo flash ZFS que foi criado no sistema mestre para o sistema de clone.
Locais possíveis de arquivo são um sistema de arquivos local, HTTP, FTP, NFS, e assim por diante.
Crie um BE ZFS alternativo vazio no sistema de clone.
Use a opção -s - para especificar que este é um BE vazio a ser preenchido com o conteúdo do arquivo flash ZFS.
Por exemplo:
clone-system# lucreate -n zfsflashBE -s - -p rpool Determining types of file systems supported Validating file system requests Preparing logical storage devices Preparing physical storage devices Configuring physical storage devices Configuring logical storage devices Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <s10zfsBE>. Current boot environment is named <s10zfsBE>. Creating initial configuration for primary boot environment <s10zfsBE>. INFORMATION: No BEs are configured on this system. The device </dev/dsk/c0t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <s10zfsBE> PBE Boot Device </dev/dsk/c0t0d0s0>. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c0t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsflashBE>. Creation of boot environment <zfsflashBE> successful.
Instale o arquivo flash ZFS no BE alternativo.
Por exemplo:
clone-system# luupgrade -f -s /net/server/export/s10/latest -n zfsflashBE -a /tank/data/zfs10up2flar miniroot filesystem is <lofs> Mounting miniroot at </net/server/s10up/latest/Solaris_10/Tools/Boot> Validating the contents of the media </net/server/export/s10up/latest>. The media is a standard Solaris media. Validating the contents of the miniroot </net/server/export/s10up/latest/Solaris_10/Tools/Boot>. Locating the flash install program. Checking for existence of previously scheduled Live Upgrade requests. Constructing flash profile to use. Creating flash profile for BE <zfsflashBE>. Performing the operating system flash install of the BE <zfsflashBE>. CAUTION: Interrupting this process may leave the boot environment unstable or unbootable. Extracting Flash Archive: 100% completed (of 5020.86 megabytes) The operating system flash install completed. updating /.alt.tmp.b-rgb.mnt/platform/sun4u/boot_archive The Live Flash Install of the boot environment <zfsflashBE> is complete.
Ative o ambiente de inicialização alternativo.
clone-system# luactivate zfsflashBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsflashBE>. . . . Modifying boot archive service Activation of boot environment <zfsflashBE> successful.
Reinicialize o sistema.
clone-system# init 6
É possível utilizar o Live Upgrade para migrar um sistema com regiões, mas as configurações suportadas são limitadas na versão Solaris 10 10/08. Se estiver instalando ou atualizando para pelo menos o o Solaris 10 5/09, mais configurações de região são suportadas. Para mais informações, consulte Utilizando o Oracle Solaris Live Upgrade para migrar ou atualizar um sistema com regiões (no mínimo Solaris 10 5/09).
Esta seção descreve como instalar e configurar um sistema com regiões para que possa ser atualizado e ter patches instalados com o Live Upgrade. Se for migrar para um sistema de arquivos raiz ZFS sem regiões, consulte Using Live Upgrade to Migrate or Update a ZFS Root File System (Without Zones).
Se for migrar ou configurar um sistema com regiões no Solaris 10 10/08, consulte os seguintes procedimentos:
Siga esses procedimentos recomendados para configurar regiões em um sistema com sistemas de arquivos raiz ZFS para garantir que o Live Upgrade possa ser usado em tal sistema.
Este procedimento explica como migrar de um sistema de arquivos raiz UFS com regiões instaladas para um sistema de arquivos de raiz e configuração de raiz de região ZFS que pode ser atualizada ou ter patches instalado.
Nas etapas a seguir, o nome do pool de exemplo é rpool e os nomes de exemplo do ambiente de inicialização (BEs) ativo começa com s10BE* .
Para obter mais informações sobre a atualização de um sistema que executa o Solaris versão 10, consulte Oracle Guia de instalação do Solaris 10 9/10: Solaris Live Upgrade e planejamento da atualização.
# zpool create rpool mirror c0t1d0 c1t1d0
Para obter informações sobre os requisitos do conjunto raiz, consulte Requisitos de instalação do e Oracle Solaris Live Upgrade para suporte ZFS.
# lucreate -n s10BE2 -p rpool
Este comando estabelece os conjuntos de dados no conjunto raiz do novo ambiente de inicialização e copia o ambiente de inicialização atual (incluindo as regiões) em tais conjuntos de dados.
# luactivate s10BE2
Agora, o sistema está executando um sistema de arquivos raiz ZFS, mas as raízes de região no UFS ainda estão no sistema de arquivos raiz UFS. É necessário completar as próximas etapas para migrar totalmente as regiões UFS para uma configuração ZFS suportada.
# init 6
# lucreate s10BE3
# luactivate s10BE3
# init 6
Esta etapa verifica se o BE do ZFS e as regiões estão inicializados.
Devido a um erro no Live Upgrade, o ambiente de inicialização inativo pode falhar ao ser inicializado porque o conjunto de dados ZFS ou o conjunto de dados ZFS da região no ambiente de inicialização possui um ponto de montagem inválido.
Procure os pontos de montagem temporários incorretos. Por exemplo:
# zfs list -r -o name,mountpoint rpool/ROOT/s10up NAME MOUNTPOINT rpool/ROOT/s10up /.alt.tmp.b-VP.mnt/ rpool/ROOT/s10up/zones /.alt.tmp.b-VP.mnt//zones rpool/ROOT/s10up/zones/zonerootA /.alt.tmp.b-VP.mnt/zones/zonerootA
O ponto de montagem do ambiente de inicialização ZFS raiz (rpool/ROOT/s10up) deve ser /.
Por exemplo:
# zfs inherit -r mountpoint rpool/ROOT/s10up # zfs set mountpoint=/ rpool/ROOT/s10up
Quando a opção para inicializar um BE específico for apresentada no prompt do OpenBoot PROM ou no menu GRUB, selecione o BE cujos pontos de montagem acabam de ser corrigidos.
Este procedimento explica como configurar um sistema de arquivos raiz ZFS e a configuração da raiz de região ZFS que pode ser atualizada ou ter patches instalados. Nesta configuração, as raízes de região ZFS são criadas como conjuntos de dados ZFS.
Nas etapas a seguir, o nome do conjunto de exemplo é rpool e o nome de exemplo do ambiente de inicialização ativo é s10BE*. O nome do conjunto de dados das regiões pode ser qualquer nome de conjunto de dados válido. No exemplo a seguir, o nome do conjunto de dados das regiões é regiões.
Dependendo do método de instalação escolhido, consulte Instalação de um sistema de arquivos raiz ZFS (instalação inicial do Oracle Solaris) ou Instalando um sistema de arquivos raiz ZFS (Instalação com JumpStart).
Por exemplo:
# zfs create -o canmount=noauto rpool/ROOT/s10BE/zones
Definir o valor canmount para a propriedade noauto impede que o conjunto de dados seja montado de forma diferente da ação explícita do Live Upgrade e do código de inicialização do sistema.
# zfs mount rpool/ROOT/s10BE/zones
O conjunto de dados é montado em /zones.
# zfs create -o canmount=noauto rpool/ROOT/s10BE/zones/zonerootA # zfs mount rpool/ROOT/s10BE/zones/zonerootA
# chmod 700 /zones/zonerootA
# zonecfg -z zoneA zoneA: No such zone configured Use 'create' to begin configuring a new zone. zonecfg:zoneA> create zonecfg:zoneA> set zonepath=/zones/zonerootA
Você pode ativar as regiões para que se inicializem automaticamente quando o sistema for inicializado usando a seguinte sintaxe:
zonecfg:zoneA> set autoboot=true
# zoneadm -z zoneA install
# zoneadm -z zoneA boot
Utilize este procedimento quando precisar atualizar ou instalar patches em um sistema de arquivos raiz ZFS com raízes de região em ZFS. Estas atualizações podem consistir em uma melhora do sistema quanto na aplicação de patches.
Nas etapas a seguir, newBE é o nome de exemplo do ambiente de inicialização que é atualizado ou tem patches instalados.
# lucreate -n newBE
O BE existente, incluindo todas as regiões, é clonado. É criado um conjunto de dados para cada conjunto de dados no ambiente de inicialização original. Os novos conjuntos de dados são criados no mesmo pool do pool raiz atual.
Atualize o sistema.
# luupgrade -u -n newBE -s /net/install/export/s10up/latest
onde a opção -s especifica a localização de um meio de instalação do Oracle Solaris.
Aplique patches ao novo ambiente de inicialização.
# luupgrade -t -n newBE -t -s /patchdir 139147-02 157347-14
# luactivate newBE
# init 6
Devido a um erro no Live Upgrade, o ambiente de inicialização inativo pode falhar ao ser inicializado porque o conjunto de dados ZFS ou o conjunto de dados ZFS da região no ambiente de inicialização possui um ponto de montagem inválido.
Procure os pontos de montagem temporários incorretos. Por exemplo:
# zfs list -r -o name,mountpoint rpool/ROOT/newBE NAME MOUNTPOINT rpool/ROOT/newBE /.alt.tmp.b-VP.mnt/ rpool/ROOT/newBE/zones /.alt.tmp.b-VP.mnt/zones rpool/ROOT/newBE/zones/zonerootA /.alt.tmp.b-VP.mnt/zones/zonerootA
O ponto de montagem do BE do ZFS raiz (rpool/ROOT/newBE) deve ser /.
Por exemplo:
# zfs inherit -r mountpoint rpool/ROOT/newBE # zfs set mountpoint=/ rpool/ROOT/newBE
Quando a opção para inicializar um ambiente de inicialização específico for apresentada no prompt do OpenBoot PROM ou no menu GRUB, selecione o ambiente de inicialização cujos pontos de montagem acabam de ser corrigidos.
É possível utilizar o recurso Oracle Solaris Live Upgrade para migrar ou atualizar um sistema com regiões a partir da versão Solaris 10 10/08. Configurações adicionais (esparsa ou completa) são suportadas pelo Live Upgrade a partir do Solaris versão 10 5/09.
Esta seção descreve como configurar e instalar um sistema com regiões para que possa ser atualizado e ter o patch instalado com o Live Upgrade a partir da versão Solaris 10 5/09. Se for migrar para um sistema de arquivos raiz ZFS sem regiões, consulte Using Live Upgrade to Migrate or Update a ZFS Root File System (Without Zones).
Considere os pontos a seguir ao utilizar o Live Upgrade com ZFS e regiões começando com a versão Solaris 10 5/09:
Para utilizar o Live Upgrade com configurações de regiões que são suportadas, começando com o Solaris versão 10 5/09, é necessário primeiro atualizar o sistema para o Solaris versão 10 5/09 pelo menos, ao utilizar o programa de atualização padrão.
Logo, com o Live Upgrade, é possível migrar o sistema de arquivos raiz UFS com raízes de região para o sistema de arquivos raiz ZFS ou atualizar ou instalar patches no sistema de arquivos raiz ZFS e raízes de região.
Não é possível migrar diretamente configurações de regiões não suportadas de uma versão Solaris 10 anterior à versão Solaris 10 5/09, no mínimo.
Se estiver migrando ou configurando um sistema com regiões começando com a versão Solaris 10 5/09, revise as informações a seguir:
Revise as configurações de região suportadas antes de utilizar o recurso Oracle Solaris Live Upgrade para migrar ou atualizar um sistema com regiões.
Migrar um sistema de arquivos raiz UFS para um sistema de arquivos raiz ZFS – São suportadas as seguintes configurações de raízes de região:
Em um diretório no sistema de arquivos raiz UFS
Em um subdiretório de um ponto de montagem no sistema de arquivos raiz UFS
Sistema de arquivos raiz UFS com uma raiz de região em um diretório de sistema de arquivos UFS ou em um subdiretório de um ponto de montagem de sistema de arquivos raiz UFS e um grupo não raiz ZFS com uma raiz de região
Um sistema de arquivos raiz UFS que possui uma raiz de região como um ponto de montagem não é suportado.
Migrar ou atualizar um sistema de arquivos raiz ZFS – São suportadas as seguintes configurações de raízes de região:
Em um sistema de arquivos em um pool raiz ZFS ou não-raiz. Por exemplo, /zonepool/zones é aceitável. Em alguns casos, se um sistema de arquivos para a raiz da egião não for fornecido antes da operação do Live Upgrade, um sistema de arquivos para a raiz de região (zoneds) será criado pelo Live Upgrade.
Em um sistema de arquivos descendente ou em um subdiretório de um sistema de arquivos ZFS, desde que os caminhos de área não estejam aninhados. Por exemplo, /zonepool/zones/zone1 e /zonepool/zones/zone1_dir são aceitáveis.
No exemplo a seguir, zonepool/zones é um sistema de arquivos que contém as raízes da região e rpool contém o BE do ZFS:
zonepool zonepool/zones zonepool/zones/myzone rpool rpool/ROOT rpool/ROOT/myBE
O Live Upgrade faz instantâneos e clones das regiões em zonepool e do BE em rpool se for utilizada esta sintaxe:
# lucreate -n newBE
O BE newBE no rpool/ROOT/newBE é criado. Quando ativado, newBE fornece acesso aos componentes zonepool.
No exemplo anterior, se /zonepool/zones fosse um subdiretório e não um sistema de arquivos separado, então o Live Upgrade iria migrá-lo como um componente do pool raiz, rpool.
A configuração de caminho ZFS e de área não é suportada:
O Live upgrade não pode ser usado para criar um BE alternativo quando o BE de origem tem uma área não-global com um caminho de área definido para o ponto de montagem de um sistema de arquivos do pool de nível superior. Por exemplo, se o pool zonepool tiver um sistema de arquivos montado como /zonepool, você não poderá ter uma área não-global com um caminho de zona definido como /zonepool.
Migração de regiões ou informações de atualização com regiões para UFS e ZFS: observe os fatores a seguir que podem afetar tanto a migração quanto a atualização de ambientes UFS e ZFS:
Se tiver configurado as regiões conforme descrito em Uso do Live Upgrade para migrar ou atualizar um sistema com regiões (Solaris 10 10/08) na versão do Solaris 10 10/08 e atualizado para pelo menos o Solaris 10 5/09, você pode migrar para um sistema de arquivos raiz ZFS ou utilizar o Oracle Solaris Live Upgrade a fim de atualizar para no mínimo a versão Solaris 10 5/09.
Não crie raízes de regiões em diretórios aninhados, por exemplo zones/zone1 e zones/zone1/zone2. Caso contrário, a montagem poderá falhar no momento de inicialização.
Utilize este procedimento depois de ter efetuado uma instalação inicial pelo menos da versão Solaris 10 5/09 para criar um sistema de arquivos raiz ZFS. Utilize também este procedimento depois de ter utilizado o comando luupgrade para atualizar um sistema de arquivos raiz ZFS para pelo menos a versão Solaris 10 5/09. Um BE do ZFS criado através deste procedimento pode, portanto, ser atualizado e receber correções.
Nas etapas a seguir, o sistema Oracle Solaris 10 9/10 de exemplo apresenta um sistema de arquivos raiz ZFS e um conjunto de dados de região de raiz em /rpool/zones. É criado um BE do ZFS denominado zfs2BE que pode ser atualizado e ter patches instalados.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.26G 59.7G 98K /rpool rpool/ROOT 4.64G 59.7G 21K legacy rpool/ROOT/zfsBE 4.64G 59.7G 4.64G / rpool/dump 1.00G 59.7G 1.00G - rpool/export 44K 59.7G 23K /export rpool/export/home 21K 59.7G 21K /export/home rpool/swap 1G 60.7G 16K - rpool/zones 633M 59.7G 633M /rpool/zones
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /rpool/zones native shared
# lucreate -n zfs2BE Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <zfsBE>. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes yes yes no - zfs2BE yes no no yes - # luactivate zfs2BE A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>. . . .
# init 6
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.38G 59.6G 98K /rpool rpool/ROOT 4.72G 59.6G 21K legacy rpool/ROOT/zfs2BE 4.72G 59.6G 4.64G / rpool/ROOT/zfs2BE@zfs2BE 74.0M - 4.64G - rpool/ROOT/zfsBE 5.45M 59.6G 4.64G /.alt.zfsBE rpool/dump 1.00G 59.6G 1.00G - rpool/export 44K 59.6G 23K /export rpool/export/home 21K 59.6G 21K /export/home rpool/swap 1G 60.6G 16K - rpool/zones 17.2M 59.6G 633M /rpool/zones rpool/zones-zfsBE 653M 59.6G 633M /rpool/zones-zfsBE rpool/zones-zfsBE@zfs2BE 19.9M - 633M - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /rpool/zones native shared
Utilize este procedimento quando for necessário atualizar ou instalar patches em um sistema de arquivos raiz ZFS com raízes de região na versão Solaris 10 5/09, no mínimo. Estas atualizações podem ser tanto uma melhora do sistema quanto a aplicação de patches.
Nas etapas a seguir, zfs2BE é o nome de exemplo do ambiente de inicialização que é atualizado ou tem patches instalados.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.38G 59.6G 100K /rpool rpool/ROOT 4.72G 59.6G 21K legacy rpool/ROOT/zfs2BE 4.72G 59.6G 4.64G / rpool/ROOT/zfs2BE@zfs2BE 75.0M - 4.64G - rpool/ROOT/zfsBE 5.46M 59.6G 4.64G / rpool/dump 1.00G 59.6G 1.00G - rpool/export 44K 59.6G 23K /export rpool/export/home 21K 59.6G 21K /export/home rpool/swap 1G 60.6G 16K - rpool/zones 22.9M 59.6G 637M /rpool/zones rpool/zones-zfsBE 653M 59.6G 633M /rpool/zones-zfsBE rpool/zones-zfsBE@zfs2BE 20.0M - 633M -
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 5 zfszone running /rpool/zones native shared
# lucreate -n zfs2BE Analyzing system configuration. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Creating snapshot for <rpool/zones> on <rpool/zones@zfs10092BE>. Creating clone for <rpool/zones@zfs2BE> on <rpool/zones-zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful.
Atualize o sistema.
# luupgrade -u -n zfs2BE -s /net/install/export/s10up/latest
onde a opção -s especifica a localização de um meio de instalação do Oracle Solaris.
Este processo pode demorar um longo tempo.
Para obter um exemplo completo do processo de luupgrade, consulte o Exemplo 5-9.
Aplique patches ao novo ambiente de inicialização.
# luupgrade -t -n zfs2BE -t -s /patchdir patch-id-02 patch-id-04
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes yes yes no - zfs2BE yes no no yes - # luactivate zfs2BE A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>. . . .
# init 6
Exemplo 5-9 Atualização de um sistema de arquivos raiz ZFS com raiz de região para um sistema de arquivos raiz ZFS do Oracle Solaris 10 9/10
Neste exemplo, um ambiente de inicialização ZFS (zfsBE), criado em um sistema Solaris versão 10 10/09 com um sistema de arquivos raiz ZFS e uma raiz de região em um pool não-raiz, é atualizado para o Oracle Solaris versão 10 9/10. Este processo pode ser demorado. A seguir, o BE atualizado (zfs2BE) é ativado. Certifique-se de que as regiões estejam instaladas e inicializadas antes de tentar atualizar.
Neste exemplo, o grupo zonepool e o conjunto de dados /zonepool/zones e a região zfszone são criados como segue:
# zpool create zonepool mirror c2t1d0 c2t5d0 # zfs create zonepool/zones # chmod 700 zonepool/zones # zonecfg -z zfszone zfszone: No such zone configured Use 'create' to begin configuring a new zone. zonecfg:zfszone> create zonecfg:zfszone> set zonepath=/zonepool/zones zonecfg:zfszone> verify zonecfg:zfszone> exit # zoneadm -z zfszone install cannot create ZFS dataset zonepool/zones: dataset already exists Preparing to install zone <zfszone>. Creating list of files to copy from the global zone. Copying <8960> files to the zone. . . .
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /zonepool/zones native shared # lucreate -n zfsBE . . . # luupgrade -u -n zfsBE -s /net/install/export/s10up/latest 40410 blocks miniroot filesystem is <lofs> Mounting miniroot at </net/system/export/s10up/latest/Solaris_10/Tools/Boot> Validating the contents of the media </net/system/export/s10up/latest>. The media is a standard Solaris media. The media contains an operating system upgrade image. The media contains <Solaris> version <10>. Constructing upgrade profile to use. Locating the operating system upgrade program. Checking for existence of previously scheduled Live Upgrade requests. Creating upgrade profile for BE <zfsBE>. Determining packages to install or upgrade for BE <zfsBE>. Performing the operating system upgrade of the BE <zfsBE>. CAUTION: Interrupting this process may leave the boot environment unstable or unbootable. Upgrading Solaris: 100% completed Installation of the packages from this media is complete. Updating package information on boot environment <zfsBE>. Package information successfully updated on boot environment <zfsBE>. Adding operating system patches to the BE <zfsBE>. The operating system patch installation is complete. INFORMATION: The file </var/sadm/system/logs/upgrade_log> on boot environment <zfsBE> contains a log of the upgrade operation. INFORMATION: The file </var/sadm/system/data/upgrade_cleanup> on boot environment <zfsBE> contains a log of cleanup operations required. INFORMATION: Review the files listed above. Remember that all of the files are located on boot environment <zfsBE>. Before you activate boot environment <zfsBE>, determine if any additional system maintenance is required or if additional media of the software distribution must be installed. The Solaris upgrade of the boot environment <zfsBE> is complete. Installing failsafe Failsafe install is complete. # luactivate zfs2BE # init 6 # lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes no no yes - zfs2BE yes yes yes no - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /zonepool/zones native shared
Utilize este procedimento para migrar um sistema com um sistema de arquivos raiz UFS e uma raiz de região para a versão Solaris 10 5/09, pelo menos. Em seguida, use o Live Upgrade para criar um BE do ZFS.
Nas etapas a seguir, o nome do BE do UFS de exemplo é c1t1d0s0, a raiz da região UFS é zonepool/zfszone, e o BE de raiz ZFS é zfs .
Para informações sobre atualizações de um sistema que executa o Solaris 11, consulte Oracle Guia de instalação do Solaris 10 9/10: Solaris Live Upgrade e planejamento da atualização.
Para obter informações sobre os requisitos do conjunto raiz, consulte Requisitos de instalação do e Oracle Solaris Live Upgrade para suporte ZFS.
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /zonepool/zones native shared
# lucreate -c c1t1d0s0 -n zfsBE -p rpool
Este comando estabelece os conjuntos de dados no conjunto raiz do novo ambiente de inicialização e copia o ambiente de inicialização atual (incluindo as regiões) em tais conjuntos de dados.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c1t1d0s0 yes no no yes - zfsBE yes yes yes no - # luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. . . .
# init 6
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.17G 60.8G 98K /rpool rpool/ROOT 4.67G 60.8G 21K /rpool/ROOT rpool/ROOT/zfsBE 4.67G 60.8G 4.67G / rpool/dump 1.00G 60.8G 1.00G - rpool/swap 517M 61.3G 16K - zonepool 634M 7.62G 24K /zonepool zonepool/zones 270K 7.62G 633M /zonepool/zones zonepool/zones-c1t1d0s0 634M 7.62G 633M /zonepool/zones-c1t1d0s0 zonepool/zones-c1t1d0s0@zfsBE 262K - 633M - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /zonepool/zones native shared
Exemplo 5-10 Migrando um sistema de arquivos raiz UFS com raiz de região para um sistema de arquivos raiz ZFS
Neste exemplo, um sistema Oracle Solaris 10 9/10 com um sistema de arquivos raiz UFS e uma raiz de região (/uzone/ufszone) e um pool não-raiz ZFS (grupo ) e a região raiz (/grupo/zfszone) é migrado para um sistema de arquivos raiz ZFS. Certifique-se de que o conjunto raiz ZFS seja criado e que as regiões estejam instaladas e inicializadas antes de realizar a migração.
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 ufszone running /uzone/ufszone native shared 3 zfszone running /pool/zones/zfszone native shared
# lucreate -c ufsBE -n zfsBE -p rpool Analyzing system configuration. No name for current boot environment. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <ufsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <ufsBE>. Creating boot environment <zfsBE>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Populating file systems on boot environment <zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Copying root of zone <ufszone> to </.alt.tmp.b-EYd.mnt/uzone/ufszone>. Creating snapshot for <pool/zones/zfszone> on <pool/zones/zfszone@zfsBE>. Creating clone for <pool/zones/zfszone@zfsBE> on <pool/zones/zfszone-zfsBE>. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </rpool/ROOT>. Creating compare database for file system </>. Updating compare databases on boot environment <zfsBE>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-DLd.mnt updating /.alt.tmp.b-DLd.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful. # lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes yes yes no - zfsBE yes no no yes - # luactivate zfsBE . . . # init 6 . . . # zfs list NAME USED AVAIL REFER MOUNTPOINT pool 628M 66.3G 19K /pool pool/zones 628M 66.3G 20K /pool/zones pool/zones/zfszone 75.5K 66.3G 627M /pool/zones/zfszone pool/zones/zfszone-ufsBE 628M 66.3G 627M /pool/zones/zfszone-ufsBE pool/zones/zfszone-ufsBE@zfsBE 98K - 627M - rpool 7.76G 59.2G 95K /rpool rpool/ROOT 5.25G 59.2G 18K /rpool/ROOT rpool/ROOT/zfsBE 5.25G 59.2G 5.25G / rpool/dump 2.00G 59.2G 2.00G - rpool/swap 517M 59.7G 16K - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - ufszone installed /uzone/ufszone native shared - zfszone installed /pool/zones/zfszone native shared