Guida all'installazione di Oracle Solaris 10 9/10: pianificazione dell'installazione e dell'aggiornamento

Parte II Installazioni basate su ZFS, sulle procedure di avvio, su Solaris Zones e sui volumi RAID-1

Questa parte descrive varie tecnologie legate all'installazione o all'aggiornamento di Solaris. Sono inclusi anche i requisiti e le linee guida per l'installazione.

Capitolo 6 Installazione di un file system root ZFS (pianificazione)

Questo capitolo presenta i requisiti di sistema e le limitazioni relative all'installazione di un pool root ZFS. Presenta anche un'introduzione ai programmi che permettono di eseguire l'installazione su un pool root ZFS.

Se sul sistema sono presenti più ambienti di boot, vedere il Capitolo 7Avvio di sistemi SPARC e x86 (panoramica e pianificazione) per informazioni sull'avvio.

Nuove funzioni di Solaris 10 10/09

A partire dalla versione Solaris 10 10/09 è possibile impostare un profilo JumpStart per identificare un archivio Flash di un pool root ZFS.

È possibile creare un archivio Flash in un sistema che utilizza un file system root UFS o ZFS. Un archivio Flash di un pool root ZFS contiene tutta la gerarchia del pool, con l'esclusione dei volumi di swap e di dump e dei set di dati eventualmente esclusi. I volumi di swap e di dump vengono creati al momento dell'installazione dell'archivio Flash.

Utilizzare il metodo di installazione degli archivi Flash indicato di seguito:

Per maggiori istruzioni e informazioni sulle limitazioni, vedere la sezione Installing a ZFS Root File System (Oracle Solaris Flash Archive Installation) in Oracle Solaris ZFS Administration Guide.

Requisiti per l'installazione di un pool root ZFS

Tabella 6–1 Requisiti di sistema e limitazioni

Requisito o limitazione 

Descrizione 

Informazione 

Memoria

La memoria minima richiesta è di 768 MB. La memoria consigliata per ottenere buone prestazioni globali è di 1 GB. 

ZFS Administration Guide.

Spazio su disco 

Lo spazio minimo disponibile nel pool per un file system root ZFS avviabile dipende dalla memoria fisica e dallo spazio su disco disponibili, nonché dal numero di ambienti di boot da creare. 

Per maggiori informazioni, vedere Requisiti di spazio su disco per un'installazione ZFS.

Il pool di memorizzazione ZFS deve essere creato da una o più slice anziché da interi dischi per poter essere aggiornabile e avviabile. 

  • Può essere eseguito il mirroring del pool creato dalle slice, ma non con una configurazione RAID-Z o non ridondante con più dischi. Le informazioni sul dispositivo SVM devono essere già disponibili nella directory /dev/md/[r]dsk.

  • Il pool deve avere un'etichetta SMI. Non è possibile avviare i dischi con etichetta EFI.

  • Solo x86: il pool ZFS deve trovarsi in una slice con una partizione fdisk.

Quando si esegue la migrazione da un file system root (/) UFS a un pool root ZFS con Solaris Live Upgrade, tenere in considerazione questi requisiti.

  • La migrazione da un file system UFS a un pool root ZFS con Solaris Live Upgrade o la creazione di un nuovo ambiente di boot in un pool root sono funzioni introdotte in Solaris 10 10/08. Questa versione contiene il software necessario per usare Solaris Live Upgrade con ZFS. È necessario avere installata questa versione o una successiva per usare ZFS con Solaris Live Upgrade.

  • La migrazione è possibile solo da un file system UFS a un file system ZFS.

    • Non è possibile eseguire la migrazione di altri file system (non UFS) a un pool root ZFS.

    • Non è possibile creare un file system UFS da un pool root ZFS.

  • Prima di eseguire la migrazione, deve già esistere un pool di memorizzazione ZFS.

Requisiti di spazio su disco per un'installazione ZFS

In genere, in un sistema con un file system root UFS, i dispositivi swap e dump si trovano sulla stessa slice. Di conseguenza, UFS condivide lo spazio di swap con il dispositivo di dump. In un pool root ZFS, le aree di swap e dump si trovano su volumi zvols separati, in modo da non condividere lo stesso spazio fisico. Quando un sistema viene installato o aggiornato con un file system root ZFS, le dimensioni dell'area di swap e del dispositivo di dump dipendono dalla quantità di memoria fisica. Lo spazio minimo disponibile nel pool per un file system root ZFS avviabile dipende dalla memoria fisica e dallo spazio su disco disponibili, e dal numero di ambienti di boot da creare. In genere sono consigliati 1 Gbyte di memoria e almeno 2 Gbyte di spazio su disco. Lo spazio viene occupato nel modo seguente:

Programmi di installazione di Solaris per l'installazione di pool root ZFS

I seguenti programmi di installazione eseguono un'installazione iniziale di un pool root ZFS.

Solaris Live Upgrade può eseguire la migrazione da un file system UFS a un pool root ZFS. Inoltre, Solaris Live Upgrade può creare ambienti di boot ZFS aggiornabili.

Tabella 6–2 Programmi di installazione per ZFS e relative limitazioni

Programma di installazione per ZFS 

Descrizione 

Limitazioni 

Informazione 

Programma di installazione di Solaris con interfaccia a caratteri 

Il programma di installazione con interfaccia a caratteri di Solaris esegue un'installazione iniziale per un pool root ZFS. Durante l'installazione è possibile selezionare come destinazione un file system UFS o un pool root ZFS. È possibile configurare un pool root ZFS in mirroring selezionando due o più slice durante l'installazione. Oppure, è possibile collegare o aggiungere altri dischi dopo l'installazione per creare un pool root ZFS in mirroring. I dispositivi di swap e dump sui volumi ZFS vengono creati automaticamente nel pool root ZFS. 

  • L'interfaccia grafica non è disponibile per l'installazione di un pool root ZFS.

  • Non è possibile usare il programma di aggiornamento standard per l'aggiornamento. Per aggiornare un pool root ZFS è necessario usare Solaris Live Upgrade.

Capitolo 3, Installazione con il programma di installazione di Solaris con interfaccia a caratteri per i pool root ZFS (pianificazione e procedure) in Guida all’installazione di Oracle Solaris 10 9/10: installazioni di base

Solaris Live Upgrade 

È possibile utilizzare Solaris Live Upgrade per svolgere le seguenti attività:

  • Eseguire la migrazione di un file system root (/) UFS a un pool root ZFS

  • Creare un nuovo ambiente di boot nei modi seguenti:

    • In un pool root ZFS esistente

    • In un altro pool root ZFS

    • Da un'origine che si trova su un sistema diverso

    • Su un sistema con zone non globali installate

Dopo aver utilizzato il comando lucreate per creare un ambiente di boot ZFS, è possibile usare i comandi di Solaris Live Upgrade nell'ambiente di boot.

È necessario creare un pool di memorizzazione prima di usare il comando lucreate.

Capitolo 11, Solaris Live Upgrade e ZFS (panoramica) in Guida all’installazione di Oracle Solaris 10 9/10: Solaris Live Upgrade e pianificazione degli aggiornamenti

JumpStart 

A partire dalla versione Solaris 10 10/09 è possibile impostare un profilo JumpStart per identificare un archivio Flash di un pool root ZFS. Vedere Nuove funzioni di Solaris 10 10/09.

È possibile creare un profilo per generare un pool di memorizzazione ZFS e designare un file system ZFS avviabile. Alcune nuove parole chiave di ZFS consentono di eseguire un'installazione iniziale. 

  • Non è possibile usare la parola chiave install_type upgrade per aggiornare un pool root ZFS. Analogamente, non è possibile usare le parole chiave di Solaris Flash.

  • Alcune parole chiave consentite in un profilo specifico per UFS non sono consentite in un profilo per ZFS.

Capitolo 7 Avvio di sistemi SPARC e x86 (panoramica e pianificazione)

A partire da Solaris 10 10/08, le modifiche apportate all'architettura di avvio forniscono varie nuove funzioni, inclusa la possibilità di avviare il sistema da differenti tipi di file system, ad esempio i file system ZFS. Il presente capitolo descrive alcune di queste modifiche e fornisce i riferimenti per ottenere maggiori informazioni sulla procedura di avvio. Contiene anche un'introduzione all'avvio con GRUB per i sistemi x86.

Il capitolo è suddiviso nelle seguenti sezioni:

Avvio di Solaris (panoramica)

A partire da Solaris 10 10/08, il processo di avvio di Solaris SPARC è stato riprogettato per migliorare la sua analogia con l'architettura di avvio dei sistemi Solaris x86. Questa migliorata architettura di avvio di Solaris consente di utilizzare funzioni come l'avvio diretto, l'avvio basato su dischi RAM e l'utilizzo di miniroot su dischi RAM sulla piattaforma SPARC. Queste tecnologie supportano le seguenti funzioni:

Altri miglioramenti includono un tempo di avvio notevolmente ridotto, una maggiore versatilità e ridotti requisiti di manutenzione.

Nell'ambito di questa riprogettazione dell'architettura, gli archivi di avvio di Solaris e il comando bootadm, disponibili in precedenza solo sulla piattaforma Solaris x86, sono ora parte integrante dell'architettura di avvio di Solaris SPARC.

Nonostante le modifiche all'implementazione dell'architettura di avvio di Solaris SPARC, nessuna procedura di amministrazione per l'avvio della piattaforma SPARC è stata modificata. La procedura di installazione di Solaris ora consente l'installazione da un file system ZFS. Non sono state apportate altre modifiche in relazione alla nuova architettura di avvio.

Avvio degli ambienti di boot ZFS (panoramica)

Se sul sistema è installato più di un sistema operativo o più di un ambiente di boot root in un pool root ZFS, è possibile avviare il sistema da questi ambienti di boot sia per le piattaforme SPARC che per quelle x86. Gli ambienti di boot avviabili includono quelli creati da Solaris Live Upgrade.

Nei sistemi SPARC e x86, ogni pool root ZFS dispone di un set di dati designato come file system root predefinito. Se in un sistema SPARC si digita il comando boot oppure in un sistema x86 si sceglie il valore predefinito dal menu di GRUB, viene avviato questo file system root predefinito.

Tabella 7–1 Guida alle informazioni sull'avvio

Descrizione 

Informazione 

Per un'introduzione generale alle funzioni di avvio 

Capitolo 8, Introduction to Shutting Down and Booting a System in System Administration Guide: Basic Administration

Per una descrizione più dettagliata delle funzioni di avvio 

Capitolo 9, Shutting Down and Booting a System (Overview) in System Administration Guide: Basic Administration

x86: per informazioni sulla modifica del comportamento di avvio, ad esempio per l'individuazione o la modifica del file menu.lst.

Modifying Boot Behavior on x86 Based Systems (Task Map) in System Administration Guide: Basic Administration

Per le procedure per l'avvio di un file system ZFS 

Capitolo 12, Booting an Oracle Solaris System (Tasks) in System Administration Guide: Basic Administration

Per le procedure per la gestione di un archivio di avvio, ad esempio per l'individuazione del file menu.lst di GRUB e l'utilizzo del comando bootadm

Capitolo 13, Managing the Oracle Solaris Boot Archives (Tasks) in System Administration Guide: Basic Administration

x86: Avvio con GRUB (panoramica)

Nel sistema operativo Solaris è stato adottato come boot loader predefinito il boot loader open source GRUB.

Il boot loader è il primo programma che viene eseguito dopo l'accensione di un sistema. Quando si accende un sistema x86, il BIOS (Basic Input/Output System) inizializza la CPU, la memoria e i componenti hardware della piattaforma. Al termine della fase di inizializzazione, il BIOS carica il boot loader dal dispositivo di avvio configurato e trasferisce il controllo del sistema al boot loader.

GRUB è un boot loader open source dotato di una semplice interfaccia a menu, che include le opzioni di avvio predefinite in un file di configurazione. GRUB dispone inoltre di un'interfaccia dalla riga di comando, accessibile dall'interfaccia a menu, da cui è possibile eseguire diversi comandi di avvio. L'implementazione di GRUB del sistema operativo Solaris è conforme alla specifica Multiboot. La specifica è descritta in dettaglio in http://www.gnu.org/software/grub/grub.html.

Poiché il kernel di Solaris è pienamente compatibile con la specifica Multiboot, è possibile avviare i sistemi x86 basati su Solaris utilizzando il boot loader GRUB. GRUB offre la possibilità di avviare e installare facilmente diversi sistemi operativi.

Un vantaggio fondamentale di GRUB è la sua capacità di riconoscere i file system e i formati eseguibili del kernel; questo consente di caricare un sistema operativo senza registrare la posizione fisica del kernel sul disco. Nell'avvio del sistema con GRUB, il kernel viene caricato specificando il nome del file corrispondente, l'unità e la partizione in cui risiede. L'avvio con GRUB sostituisce il Solaris Device Configuration Assistant e semplifica il processo grazie all'interfaccia a menu.

x86: Avvio con GRUB (pianificazione)

Questa sezione descrive le operazioni di base del processo di avvio con GRUB e i componenti del menu di GRUB.

Quando si installa il sistema operativo Solaris, sul sistema vengono installate automaticamente due voci del menu di GRUB. La prima è quella relativa al sistema operativo Solaris. La seconda riguarda l'archivio di avvio di emergenza, da utilizzare per il ripristino del sistema. Le voci del menu di GRUB relative a Solaris vengono installate e aggiornate automaticamente nell'ambito del processo di installazione e aggiornamento di Solaris. Queste voci vengono gestite direttamente dal sistema operativo e non devono essere modificate manualmente.

Durante l'installazione standard di Solaris, GRUB viene installato nella partizione fdisk di Solaris senza modificare le impostazioni del BIOS di sistema. Se il sistema operativo non si trova sul disco di avvio del BIOS, usare una delle procedure seguenti:

Il metodo consigliato è quello di installare Solaris sul disco di avvio. Se sul sistema sono installati più sistemi operativi, è possibile aggiungere le voci corrispondenti al file menu.lst. Queste voci verranno visualizzate nel menu di GRUB all'avvio successivo del sistema.

Per maggiori informazioni sull'uso di più sistemi operativi, vedere How Multiple Operating Systems Are Supported by GRUB in System Administration Guide: Basic Administration.

x86: Esecuzione di un'installazione con GRUB dalla rete

Per avviare un sistema dalla rete con GRUB sono richiesti un server DHCP configurato per i client PXE e un server di installazione che fornisca il servizio tftp. Il server DHCP deve essere in grado di rispondere alle classi DHCP PXEClient e GRUBClient. La risposta DHCP deve contenere le seguenti informazioni:


Nota –

rpc.bootparamd, generalmente richiesto dal server per i processi di avvio in rete, non è richiesto per l'avvio in rete con GRUB.


Se non sono disponibili server PXE o DHCP, è possibile caricare GRUB da un CD-ROM o da un disco locale. A questo punto si potrà configurare manualmente la rete in GRUB e scaricare il programma multiboot e l'archivio di avvio dal file server.

Per maggiori informazioni, vedere Introduzione all’avvio e all’installazione in rete con PXE in Guida all’installazione di Oracle Solaris 10 9/10: installazioni di rete.

Capitolo 8 Aggiornamento in presenza di zone di Solaris (pianificazione)

Questo capitolo contiene una descrizione generale del modo in cui la tecnologia di partizionamento Solaris Zones ha effetto sulle procedure di aggiornamento di Solaris quando sono presenti zone non globali.

Il capitolo è suddiviso nelle seguenti sezioni:

Solaris Zones (panoramica)

La tecnologia Solaris Zones è una tecnologia di partizionamento del software usata per virtualizzare i servizi del sistema operativo e per creare un ambiente isolato e sicuro per l'esecuzione delle applicazioni. Una zona è un ambiente di sistema operativo virtualizzato creato all'interno di una singola istanza del sistema operativo Solaris. Quando si crea una zona non globale, si produce un ambiente di esecuzione delle applicazioni in cui i processi sono isolati dal resto del sistema. L'isolamento impedisce ai processi eseguiti in una data zona non globale di monitorare o di produrre effetti sui processi eseguiti in tutte le altre zone non globali. Anche i processi dotati di credenziali di superutente non possono visualizzare o in alcun modo modificare l'attività delle altre zone. La zona non globale fornisce anche un livello astratto che separa le applicazioni dagli attributi fisici del sistema su cui sono implementate. Un esempio di questi attributi sono i percorsi dei dispositivi fisici.

Ogni sistema Solaris contiene una zona globale. Questa zona ha una duplice funzione. La zona globale è la zona predefinita del sistema e viene utilizzata per i controlli di amministrazione che coinvolgono l'intero sistema. Se l'amministratore globale non ha creato nessuna zona non globale, tutti i processi vengono eseguiti nella zona globale. La zona globale è l'unica zona dalla quale è possibile configurare, installare, gestire e deconfigurare una zona non globale. Solo la zona globale può essere avviata dall'hardware del sistema. L'amministrazione dell'infrastruttura del sistema, ad esempio dei dispositivi fisici, del routing o della riconfigurazione dinamica (DR), può essere eseguita solo nella zona globale. I processi eseguiti nella zona globale che dispongono di privilegi appropriati possono accedere a oggetti associati alle zone non globali.

Descrizione 

Per maggiori informazioni 

Le sezioni seguenti descrivono l'aggiornamento di un sistema che contiene zone non globali. 

Aggiornamento in presenza di zone non globali

Per informazioni complete sulla creazione e la configurazione delle zone non globali 

Capitolo 16, Introduction to Solaris Zones in System Administration Guide: Oracle Solaris Containers-Resource Management and Oracle Solaris Zones

Aggiornamento in presenza di zone non globali

Una volta eseguita l'installazione di Solaris, è possibile installare e configurare le zone non globali. L'aggiornamento di Solaris è possibile anche quando sono installate zone non globali. Se sono presenti zone non globali non native (branded), durante la procedura di aggiornamento queste vengono ignorate. Di seguito è fornita una breve descrizione dei programmi di installazione per i sistemi in cui sono presenti zone non globali.


Nota –

A partire dalla versione Solaris 10 10/09 la funzione di applicazione parallela delle patch alle zone consente di migliorare le prestazioni delle utilità di patch standard di Solaris 10. Questa funzione migliora l'applicazione delle patch alle zone in quanto applica le patch in parallelo alle zone non globali.

Le patch vengono ancora applicate alla zona globale prima dell'applicazione delle patch alle zone non globali.

Per le versioni precedenti alla Solaris 10 10/09, questa funzione viene resa disponibile nelle seguenti patch delle utilità di patch:

Per maggiori informazioni, vedere la seguente documentazione:


Tabella 8–1 Scelta di un programma di installazione per l'aggiornamento in presenza di zone non globali

Programma di aggiornamento 

Descrizione 

Per maggiori informazioni 

Solaris Live Upgrade 

È possibile aggiornare o applicare patch a un sistema che contiene zone non globali. Se il sistema in uso contiene zone non globali, il programma consigliato per l'aggiornamento o l'applicazione delle patch è Solaris Live Upgrade. Altri programmi di aggiornamento possono richiedere molto tempo per completare l'operazione, in quanto il tempo richiesto per completare l'aggiornamento aumenta proporzionalmente al numero di zone non globali installate. Se si sta applicando una patch usando Solaris Live Upgrade, non è necessario passare alla modalità monoutente e questo aumenta il tempo di attività del sistema. A partire da Solaris 10 8/07, le modifiche richieste per i sistemi in cui sono presenti zone non globali sono le seguenti:

  • È richiesta l'installazione di un nuovo pacchetto, SUNWlucfg, con gli altri pacchetti di Solaris Live Upgrade, SUNWlur e SUNWluu.

  • La procedura per la creazione di un nuovo ambiente di boot sulla base di quello corrente è immutata, con una sola eccezione. È possibile specificare una slice di destinazione per un file system condiviso all'interno di una zona non globale. Questa eccezione si verifica in presenza delle seguenti condizioni:

    • Se nell'ambiente di boot corrente è stato usato il comando zonecfg add fs per creare un file system separato per una zona non globale

    • Se questo file system separato risiede su un file system condiviso, ad esempio /zone/root/export

    Per prevenire la condivisione di questo file system separato nel nuovo ambiente di boot, il comando lucreate è stato modificato in modo da consentire di specificare una slice di destinazione per un file system separato per una zona non globale. L'argomento dell'opzione -m dispone di un nuovo campo opzionale, nome_zona. Questo nuovo campo posiziona il file system separato della zona non globale su una slice separata nel nuovo ambiente di boot. Per maggiori informazioni sulla configurazione di una zona non globale con un file system separato, vedere zonecfg(1M).

Solaris Live Upgrade (continuazione) 


Nota –

Nell'impostazione predefinita, tutti i file system ad eccezione di quelli critici (root (/), /usr e /opt) sono condivisi dal vecchio e dal nuovo ambiente di boot. Di conseguenza, l'aggiornamento dei file condivisi nell'ambiente di boot attivo si riflette anche sui dati dell'ambiente di boot inattivo. Il file system /export è un esempio di file system condiviso. Se si utilizza l'opzione -m nome_zona, il file system condiviso della zona non globale viene copiato su una slice separata e i suoi dati non vengono condivisi. Questa opzione impedisce la condivisione tra gli ambiente di boot dei file system della zona non globale che erano stati creati con il comando zonecfg add fs.


A partire da Solaris 10 8/07, le modifiche aggiuntive per i sistemi in cui sono presenti zone non globali sono le seguenti:

  • Le procedure di confronto tra gli ambienti di boot sono state migliorate. Il comando lucompare ora genera un confronto tra ambienti di boot che include i contenuti di tutte le zone non globali.

  • Il comando lumount fornisce ora zone non globali con accesso ai corrispondenti file system separati che sono presenti negli ambienti di boot inattivi. Quando l'amministratore della zona globale utilizza il comando lumount per attivare un ambiente di boot inattivo, l'ambiente di boot viene attivato anche per le zone non globali.

  • L'elenco dei file system generato dal comando lufslist visualizza ora i file system sia per la zona globale che per quelle non globali.

 

Interfaccia utente grafica (GUI) interattiva del programma di installazione di Solaris 

È possibile aggiornare un sistema che contiene zone non globali o applicarvi patch. L'aggiornamento o l'applicazione delle patch può richiedere molto tempo, in base al numero di zone non globali installate. 

Per maggiori informazioni sull'installazione con questo programma, vedere il Capitolo 2, Installazione con il programma di installazione di Solaris per i file system UFS (procedure) in Guida all’installazione di Oracle Solaris 10 9/10: installazioni di base.

Installazione automatizzata di JumpStart 

È possibile eseguire aggiornamenti o applicare patch usando le parole chiave appropriate per queste procedure. L'aggiornamento o l'applicazione delle patch può richiedere molto tempo, in base al numero di zone non globali installate. 

Per maggiori informazioni sull'installazione con l'utilizzo di questo programma, vedere la Guida all’installazione di Oracle Solaris 10 9/10: metodo JumpStart personalizzato e installazioni avanzate..

Nella tabella seguente sono elencate le limitazioni applicate quando si esegue l'aggiornamento in presenza di zone non globali.

Tabella 8–2 Limitazioni all'aggiornamento in presenza di zone non globali

Programma o condizione 

Descrizione 

Per maggiori informazioni 

Tenere presenti queste osservazioni quando si utilizza Solaris Live Upgrade in un sistema in cui sono installate zone. È di fondamentale importanza evitare transizioni di stato tra zone durante le operazioni lucreate e lumount.

  • Quando si utilizza il comando lucreate per creare un ambiente di boot inattivo, se una determinata zona non globale non è in esecuzione non è possibile avviarla prima del completamento dell'operazionelucreate.

  • Quando si utilizza il comando lucreate per creare un ambiente di boot inattivo, se una determinata zona non globale è in esecuzione la zona non deve essere interrotta né sottoposta a reboot prima del completamento dell'operazionelucreate.

  • Quando si utilizza il comando lumount per creare un ambiente di boot inattivo, se una determinata zona non globale è in esecuzione la zona non deve essere interrotta né sottoposta a reboot prima del completamento dell'operazione lumount.

  • Poiché una zona non globale può essere controllata da un amministratore della zona non globale e dall'amministratore della zona globale, per evitare interazioni interrompere tutte le zone durante l'esecuzione delle operazioni lucreate o lumount.

Se l'amministratore della zona globale non notifica all'amministratore della zona non globale un aggiornamento con Solaris Live Upgrade, possono verificarsi problemi. 

Quando le operazioni in Solaris Live Upgrade sono in corso, l'intervento dell'amministratore della zona non globale è di importanza fondamentale. L'aggiornamento interessa le attività degli amministratori, che si occupano delle modifiche verificatesi a seguito di un aggiornamento. Gli amministratori di zona devono assicurare la stabilità dei pacchetti locali durante tutta la sequenza, devono gestire tutte le procedure successive all'aggiornamento quali le impostazioni dei file di configurazione ed eseguire una pianificazione generale dei tempi di inattività del sistema.  

Ad esempio, se l'amministratore di una zona non globale aggiunge un pacchetto mentre l'amministratore della zona globale sta copiando i file system con il comando lucreate, il nuovo pacchetto non viene copiato con i file system e l'amministratore della zona non globale non è a conoscenza del problema.

 

Non è possibile utilizzare gli archivi di Solaris Flash con zone non globali. 

Non è possibile creare un archivio Solaris Flash quando è installata una zona non globale. La funzione Solaris Flash non è compatibile con la tecnologia di partizionamento Solaris Zones. Quando si crea un archivio Solaris Flash, l'archivio risultante non viene installato in modo corretto quando si verificano le seguenti condizioni:

  • L'archivio viene creato in una zona non globale.

  • L'archivio viene creato in una zona globale in cui sono installate zone non globali.

Per maggiori informazioni sull'utilizzo degli archivi Solaris Flash, vedere la Guida all’installazione di Oracle Solaris 10 9/10: archivi Solaris Flash (creazione e installazione).

In alcune condizioni, non devono essere usati comandi che utilizzano l'opzione -R o un'opzione equivalente.

I comandi che accettano un file system root alternativo (/) con l'opzione -R o equivalente non devono essere usati quando si verificano le seguenti condizioni:

  • Il comando viene eseguito nella zona globale.

  • Il file system root alternativo (/) fa riferimento a un percorso di una zona non globale.

Un esempio può essere l'opzione -R percorso_root del comando pkgadd eseguito dalla zona globale utilizzando un percorso del file system root (/) che si trova in una zona non globale.

Per un elenco dei programmi che accettano un file system root (/) alternativo e per maggiori informazioni sulle zone, vedere Restriction on Accessing A Non-Global Zone From the Global Zone in System Administration Guide: Oracle Solaris Containers-Resource Management and Oracle Solaris Zones.

Backup del sistema prima dell'aggiornamento in presenza di zone

Prime di eseguire l'aggiornamento è necessario effettuare un backup della zona globale e delle zone non globali presenti sul sistema. Per eseguire il backup del sistema in presenza di zone, vedere il Capitolo 27, Solaris Zones Administration (Overview) in System Administration Guide: Oracle Solaris Containers-Resource Management and Oracle Solaris Zones.

Requisiti di spazio per le zone non globali

Durante l'installazione della zona globale, riservare una quantità di spazio su disco sufficiente a contenere tutte le zone che si desidera creare. Ogni zona non globale può avere requisiti di spazio differenti.

Non esistono limiti per quanto riguarda la quantità di spazio su disco che può essere occupata da una zona. Eventuali limitazioni sono a discrezione dell'amministratore della zona globale. Anche un piccolo sistema monoprocessore può supportare più zone attive simultaneamente. Le caratteristiche dei pacchetti installati nella zona globale influisce sui requisiti di spazio delle zone non globali. Il numero dei pacchetti e i requisiti di spazio sono fattori rilevanti per l'allocazione dello spazio.

Per informazioni complete sui requisiti di pianificazione e sulle configurazioni consigliate, vedere il Capitolo 18, Planning and Configuring Non-Global Zones (Tasks) in System Administration Guide: Oracle Solaris Containers-Resource Management and Oracle Solaris Zones.

Capitolo 9 Creazione di volumi RAID-1 (mirror) durante l'installazione (panoramica)

Questo capitolo prende in esame i vantaggi della creazione di volumi RAID-1 (mirror) per il file system root (/). Il capitolo descrive anche i componenti di Solaris Volume Manager richiesti per la creazione di file system in mirroring. Gli argomenti trattati sono i seguenti.

Per altre informazioni specifiche su Solaris Live Upgrade o JumpStart, vedere i seguenti testi di riferimento:

Vantaggi dei volumi RAID-1

Durante l'installazione o l'aggiornamento è possibile creare volumi RAID-1 per duplicare i dati del sistema su più dischi fisici. Duplicando i dati su dischi diversi è possibile proteggerli dal danneggiamento o da un guasto del disco.

I metodi di installazione JumpStart personalizzato e Solaris Live Upgrade utilizzano la tecnologia di Solaris Volume Manager per creare volumi RAID-1 che duplichino i file system. Solaris Volume Manager offre un metodo estremamente efficiente per gestire i dischi e i dati con l'uso dei volumi. Solaris Volume Manager permette di gestire le concatenazioni, le stripe e altre configurazioni complesse. I metodi di installazione JumpStart personalizzato e Solaris Live Upgrade consentono di eseguire un sottoinsieme di queste attività, ad esempio la creazione di un volume RAID-1 per il file system root (/). È possibile creare i volumi RAID-1 durante l'installazione o l'aggiornamento, eliminando la necessità di crearli al termine dell'installazione.

Funzionamento dei volumi RAID-1

Solaris Volume Manager usa i dischi virtuali per gestire i dischi fisici e i dati che contengono. In Solaris Volume Manager, un disco virtuale viene denominato volume. Il volume comprende un gruppo di slice fisiche che appaiono al sistema come un singolo dispositivo logico. I volumi sono in realtà pseudodispositivi (o dispositivi virtuali) secondo la terminologia standard di UNIX.

Un volume è funzionalmente identico a un disco fisico dal punto di vista di un'applicazione e del file system (ad esempio UFS). Solaris Volume Manager converte le richieste di I/O dirette al volume in richieste di I/O ai dischi che lo compongono. I volumi di Solaris Volume Manager sono realizzati a partire dalle slice (partizioni del disco) o utilizzando altri volumi di Solaris Volume Manager.

I volumi possono essere utilizzati per migliorare le prestazioni e la disponibilità dei dati. In alcuni casi, possono anche migliorare le prestazioni di I/O. Dal punto di vista funzionale, i volumi si comportano allo stesso modo delle slice. Grazie a questa analogia, i volumi sono trasparenti per gli utenti, le applicazioni e i file system. Come accade con i dispositivi fisici, è possibile usare Solaris Volume Manager per accedere ai volumi con i nomi di dispositivo a blocchi o raw. Il nome del volume è diverso a seconda che si utilizzi il dispositivo a blocchi o quello raw. I metodi di installazione JumpStart personalizzato e Solaris Live Upgrade supportano l'uso di dispositivi a blocchi per creare file system in mirroring. Per maggiori informazioni sui nomi dei volumi, vedere Requisiti dei nomi dei volumi RAID e linee guida per i metodi JumpStart personalizzato e Solaris Live Upgrade.

Quando si creano volumi RAID-1 con volumi RAID-0 (concatenazioni di una singola slice), Solaris Volume Manager duplica i dati sui submirror RAID-0 e tratta i submirror come un singolo volume.

Nella Figura 9–1 è illustrato un mirror che duplica il file system root (/) su due dischi fisici.

Figura 9–1 Creazione di volumi RAID-1 nei file system root (/) di due dischi

 Il contesto descrive l'illustrazione.

La Figura 9–1 mostra un sistema con la seguente configurazione.

Panoramica dei componenti di Solaris Volume Manager

I metodi di installazione JumpStart personalizzato e Solaris Live Upgrade consentono di creare i seguenti componenti necessari per replicare i dati.

Questa sezione descrive brevemente ognuno di questi componenti. Per informazioni complete sui componenti qui descritti, vedere il manuale Solaris Volume Manager Administration Guide.

Database di stato e repliche del database di stato

Il database di stato è un database che memorizza informazioni su un disco fisico. Il database di stato registra e tiene traccia delle modifiche apportate alla configurazione. Solaris Volume Manager aggiorna automaticamente il database di stato quando si verifica una modifica alla configurazione o allo stato. La creazione di un nuovo volume è un esempio di modifica alla configurazione. Il guasto di un submirror è un esempio di modifica dello stato.

Il database di stato è in realtà una raccolta di più copie replicate del database. Ogni copia, detta replica del database di stato, garantisce che i dati del database siano sempre validi. La possibilità di disporre di più copie del database di stato garantisce dal rischio di perdita dei dati legata alla presenza di un singolo punto vulnerabile. Il database di stato tiene traccia della posizione e dello stato di tutte le repliche note.

Solaris Volume Manager non può operare fino a quando non sono stati creati il database di stato e le relative repliche. Una configurazione di Solaris Volume Manager deve disporre di un database di stato operativo.

Le repliche del database di stato garantiscono la validità dei dati del database. Quando il database di stato viene aggiornato, vengono aggiornate anche le repliche del database. Gli aggiornamenti vengono effettuati uno per volta per evitare un danneggiamento di tutti gli aggiornamenti nel caso di un'interruzione del sistema.

Se sul sistema si danneggia una replica del database di stato, Solaris Volume Manager deve identificare quali repliche del database contengono ancora dati validi. Solaris Volume Manager ottiene questa informazione applicando un algoritmo di consenso a maggioranza. Questo algoritmo richiede che la maggioranza (metà + 1) delle repliche del database di stato siano disponibili e coerenti tra loro prima che una qualsiasi di loro possa essere considerata valida. A causa di questo algoritmo, è necessario creare almeno tre repliche del database di stato quando si imposta la configurazione del disco. Il consenso viene raggiunto quando almeno due delle tre repliche sono disponibili.

Nell'impostazione predefinita, ogni replica del database di stato occupa 4 Mbyte (8192 settori del disco). Le repliche possono essere memorizzate sui seguenti dispositivi:

Le repliche non possono essere memorizzate nelle slice root (/), swap o /usr, o sulle slice che contengono dati o ospitano un file system. Una volta memorizzate le repliche, è possibile posizionare i volumi o i file system sulla stessa slice.

È possibile conservare più di una copia del database di stato su una singola slice. Tuttavia, in questo modo il sistema è più esposto ai guasti legati alla presenza di un singolo punto vulnerabile.

Descrizione 

Per maggiori informazioni 

Indicazioni e requisiti per l'utilizzo dei metodi JumpStart personalizzato e Solaris Live Upgrade per l'installazione di volumi RAID-1. 

Linee guida e requisiti delle repliche del database di stato

Informazioni più dettagliate sul database di stato e sulle repliche del database di stato. 

Solaris Volume Manager Administration Guide

Volumi RAID-1 (mirror)

Un volume RAID-1, o mirror, conserva una o più copie identiche dei dati contenuti nei volumi RAID-0 (concatenazioni di una singola slice). Una volta configurato un volume RAID-1, questo può essere utilizzato come una normale slice fisica. È possibile duplicare qualsiasi file system, anche già esistente. È anche possibile usare un volume RAID-1 per un'applicazione, ad esempio un database.

L'uso di volumi RAID-1 per il mirroring dei file system comporta vantaggi e svantaggi.

Descrizione 

Per maggiori informazioni 

Pianificazione per i volumi RAID-1 

Requisiti e linee guida per volumi RAID-1 e RAID-0

Informazioni dettagliate sui volumi RAID-1 

Solaris Volume Manager Administration Guide

Volumi RAID-0 (concatenazioni)

Un volume RAID-0 è una concatenazione di una singola slice. La concatenazione è un volume i cui dati vengono organizzati e posizionati in modo seriale e adiacente sui vari componenti, in modo da creare una singola unità di memorizzazione logica. I metodi di installazione JumpStart personalizzato e Solaris Live Upgrade non consentono la creazione di stripe o di altri volumi complessi consentiti da Solaris Volume Manager.

Durante l'installazione o l'aggiornamento, è possibile creare volumi RAID-1 (mirror) e collegare i volumi RAID-0 a questi mirror. I volumi RAID-0 che vengono posti in mirroring sono denominati submirror. Ogni mirror è composto da uno o più volumi RAID-0. Dopo l'installazione, è possibile gestire i dati residenti sui singoli submirror RAID-0 amministrando il volume mirror RAID-1 con il software Solaris Volume Manager.

Il metodo di installazione JumpStart personalizzato consente di creare un mirror composto da un massimo di due submirror. Solaris Live Upgrade consente invece di creare un mirror composto da un massimo di tre submirror. Nel normale utilizzo, i mirror a due vie (con due submirror) sono in genere sufficienti. Il terzo submirror consente l'effettuazione dei backup in linea senza mai rinunciare alla ridondanza dei dati anche quando uno dei submirror non è in linea per eseguire il backup.

Descrizione 

Per maggiori informazioni 

Pianificazione per i volumi RAID–0 

Requisiti e linee guida per volumi RAID-1 e RAID-0

Informazioni dettagliate sui volumi RAID-0 

Solaris Volume Manager Administration Guide

Esempio di configurazione dei dischi in un volume RAID-1

Nella figura seguente è illustrato un volume RAID-1 che duplica il file system root (/) su due dischi fisici. Le repliche del database di stato (metadb) vengono posizionate su entrambi i dischi.

Figura 9–2 Configurazione dei dischi in un volume RAID-1

Il contesto descrive l'illustrazione.

La Figura 9–2 mostra un sistema con la seguente configurazione.

Descrizione 

Per maggiori informazioni 

Esempio di profilo JumpStart 

Esempi di profilo in Guida all’installazione di Oracle Solaris 10 9/10: metodo JumpStart personalizzato e installazioni avanzate.

Procedure dettagliate per Solaris Live Upgrade 

Creare un ambiente di boot con volumi RAID-1 (mirror) in Guida all’installazione di Oracle Solaris 10 9/10: Solaris Live Upgrade e pianificazione degli aggiornamenti

Capitolo 10 Creazione di volumi RAID-1 (mirror) durante l'installazione (pianificazione)

Questo capitolo descrive i requisiti e le linee guida necessarie per la creazione di volumi RAID-1 con i metodi di installazione JumpStart personalizzato e Solaris Live Upgrade.

Gli argomenti trattati sono i seguenti.

Per altre informazioni specifiche su Solaris Live Upgrade o JumpStart, vedere i seguenti testi di riferimento:

Requisiti di sistema

Per creare volumi RAID-1 con cui duplicare i dati di slice specifiche, i dischi da utilizzare devono essere collegati direttamente al sistema ed essere disponibili al momento dell'installazione.

Linee guida e requisiti delle repliche del database di stato

È consigliabile distribuire le repliche del database di stato su più slice, dischi e controller diversi, per evitare la creazione di singoli punti vulnerabili. L'obiettivo è di garantire l'integrità della maggior parte delle repliche anche dopo il guasto di un singolo componente. Se una replica viene danneggiata, ad esempio quando un dispositivo si guasta, questa condizione può provocare problemi durante l'esecuzione di Solaris Volume Manager o al reboot del sistema. Solaris Volume Manager richiede che almeno la metà delle repliche siano disponibili per poter funzionare correttamente, ma richiede la presenza della maggioranza (metà più una) delle repliche per il reboot in modalità multiutente.

Per informazioni dettagliate sulla creazione e l'amministrazione delle repliche del database di stato, vedere il manuale Solaris Volume Manager Administration Guide.

Scelta delle slice per le repliche del database di stato

Prima di selezionare le slice che dovranno ospitare le repliche del database di stato, valutare le seguenti linee guida e raccomandazioni.

Attività 

Descrizione 

Scegliere una slice dedicata 

È consigliabile creare le repliche del database di stato su una slice dedicata di almeno 4 MB per replica. Se necessario, è possibile creare le repliche del database di stato su una slice che fa parte di un volume RAID-0 o RAID-1. È necessario creare le repliche prima di aggiungere la slice al volume. 

Ridimensionare una slice 

Nell'impostazione predefinita, la dimensione di una replica del database di stato è di 4 MB o 8192 blocchi del disco. Poiché in genere le slice non sono così piccole, è possibile ridimensionare una slice per posizionarvi la replica del database di stato. Per informazioni sul ridimensionamento di una slice, vedere il Capitolo 11, Administering Disks (Tasks) in System Administration Guide: Devices and File Systems.

Scegliere una slice non utilizzata 

È possibile creare le repliche del database di stato sulle slice non utilizzate. La parte della slice riservata alla replica del database di stato non dovrebbe mai essere utilizzata ad altro scopo.

 

Non è possibile creare repliche del database di stato in file system già esistenti o nei file system root (/), /usr e swap. Se necessario, è possibile creare una nuova slice (se è ancora disponibile un nome) allocando una parte dello spazio di swap e quindi posizionando le repliche del database sulla nuova slice.

Scegliere una slice per creare un volume 

Quando una replica del database di stato viene posizionata su una slice che entra a far parte di un volume, la capacità del volume viene ridotta di una dimensione pari allo spazio occupato dalla replica o dalle repliche. Lo spazio utilizzato da una replica è arrotondato al cilindro successivo e viene ignorato dal volume.  

Scelta del numero di repliche del database di stato

Prima di scegliere il numero di repliche del database di stato da creare, si tengano in considerazione le seguenti linee guida.

Distribuzione delle repliche del database di stato tra i controller

Se sul sistema sono presenti più controller, le repliche dovrebbero essere distribuite nel modo più uniforme possibile tra tutti i controller. Questa strategia garantisce la ridondanza nel caso di guasto di un controller e contribuisce anche a distribuire il carico in modo omogeneo. Se su un controller sono presenti più dischi, almeno due dei dischi di ciascun controller dovrebbero contenere una replica.

Requisiti e linee guida per volumi RAID-1 e RAID-0

Quando si utilizzano volumi RAID-1 (mirror) e RAID-0 (concatenazioni di una singola slice), tenere presenti le seguenti linee guida.

Linee guida per JumpStart personalizzato e Solaris Live Upgrade

I metodi di installazione JumpStart personalizzato e Solaris Live Upgrade supportano un sottoinsieme delle funzioni disponibili in Solaris Volume Manager. Quando si creano file system in mirroring con questi programmi di installazione, tenere presenti le seguenti linee guida.

Programma di installazione 

Funzione supportata  

Funzione non supportata 

Metodo JumpStart personalizzato e Solaris Live Upgrade 

  • Supporta i volumi RAID-0 e RAID-1, ma non supporta altri componenti di Solaris Volume Manager, come i volumi RAID-5.

  • Il volume RAID-0 è supportato, ma solo come concatenazione di una singola slice.

In Solaris Volume Manager, un volume RAID-0 può fare riferimento a stripe o a concatenazioni di dischi. Non è possibile creare volumi RAID-0 in striping durante l'installazione o l'aggiornamento. 

Metodo JumpStart personalizzato 

  • Supporta la creazione di volumi RAID-1 solo durante un'installazione iniziale.

  • È possibile creare fino a due volumi RAID-0 (submirror) per ogni volume RAID-1. In genere, due submirror forniscono un grado di ridondanza sufficiente per la maggior parte delle applicazioni e riducono i costi legati alle unità disco.

  • Non supporta l'aggiornamento quando sono stati configurati volumi RAID-1.

  • Non sono supportati più di due volumi RAID-0.

Solaris Live Upgrade 

  • È possibile creare fino a tre volumi RAID-0 (submirror) per ogni volume RAID-1. La presenza di tre submirror consente di porre uno dei submirror non in linea e di eseguirne il backup pur mantenendo la ridondanza dei dati con gli altri due submirror.

  • Supporta la creazione di volumi RAID-1 durante l'aggiornamento.

Per gli esempi, vedere Creare un ambiente di boot con volumi RAID-1 (mirror) in Guida all’installazione di Oracle Solaris 10 9/10: Solaris Live Upgrade e pianificazione degli aggiornamenti.

Non sono supportati più di tre volumi RAID-0. 

Creazione e installazione di un archivio Solaris Flash con volumi RAID-1 

È possibile creare un archivio Solaris Flash da un sistema master che utilizza volumi RAID-1 di Solaris Volume Manager. Il software Solaris Flash rimuove tutte le informazioni dei volumi RAID-1 dall'archivio per mantenere l'integrità del sistema clone. Con il metodo JumpStart personalizzato è possibile ricostruire i volumi RAID-1 usando un profilo JumpStart. Con Solaris Live Upgrade è possibile creare un ambiente di boot che utilizza volumi RAID-1 e quindi installare l'archivio. Il programma di installazione di Solaris non può essere utilizzato per installare i volumi RAID-1 con un archivio Solaris Flash. 

Per un esempio di utilizzo dei volumi RAID-1 nei profili JumpStart, vedere Esempi di profilo in Guida all’installazione di Oracle Solaris 10 9/10: metodo JumpStart personalizzato e installazioni avanzate..

Veritas VxVM memorizza le informazioni di configurazione in aree che non sono disponibili per Solaris Flash. Se sono stati configurati i file system Veritas VxVm, evitare di creare un archivio Solaris Flash. Inoltre, l'installazione di Solaris, inclusi i metodi JumpStart e Solaris Live Upgrade, non supporta la ricostruzione dei volumi VxVM in fase di installazione. Se si intende distribuire il software Veritas VxVM usando un archivio Solaris Flash, questo deve essere creato prima di configurare i file system VxVM. I sistemi clone devono quindi essere configurati singolarmente dopo l'applicazione dell'archivio e il reboot del sistema. 

Requisiti dei nomi dei volumi RAID e linee guida per i metodi JumpStart personalizzato e Solaris Live Upgrade

Osservare le seguenti regole per l'assegnazione dei nomi ai volumi.

Convenzioni di denominazione dei volumi RAID per Solaris Live Upgrade

Quando si utilizza la procedura Solaris Live Upgrade per creare i volumi RAID-1 (mirror) e RAID-0 (submirror), è possibile lasciare che il software rilevi ed assegni i nomi dei volumi oppure assegnarli direttamente. Se la rilevazione viene eseguita dal software, viene assegnato il primo nome di mirror o submirror disponibile. Se si assegnano i nomi ai mirror direttamente, assegnare nomi terminanti in zero in modo che l'installazione possa usare i nomi terminanti in 1 e 2 per i submirror. Se si assegnano i nomi ai submirror direttamente, utilizzare nomi che terminano con 1 o 2. Se i nomi vengono assegnati in modo errato, il mirror non può essere creato. Ad esempio, se si specifica il nome di un mirror terminante in 1 o 2 (d1 o d2), Solaris Live Upgrade non è in grado di creare il mirror se il suo nome è uguale al nome di uno dei submirror.


Nota –

Nelle versioni precedenti, era possibile immettere un nome di volume abbreviato. A partire da Solaris 10 10/08, è possibile immettere solo il nome completo del volume. Ad esempio, è possibile utilizzare solo il nome del volume completo, /dev/md/dsk/d10, per specificare un mirror.



Esempio 10–1 Solaris Live Upgrade: consentire al software di rilevare e assegnare il nome al mirror e al submirror

Nell'esempio seguente, Solaris Live Upgrade assegna i nomi dei volumi. I volumi RAID-1 d0 e d1 sono i soli volumi in uso. Per il mirror d10, Solaris Live Upgrade sceglie d2 per il submirror del dispositivo c0t0d0s0 e d3 per il submirror del dispositivo c1t0d0s0.


lucreate -n newbe -m /:/dev/md/dsk/d10:mirror,ufs  \
-m /:/dev/dsk/c0t0d0s0:attach -m /:/dev/dsk/c1t0d0s0:attach


Esempio 10–2 Solaris Live Upgrade: assegnare i nomi di mirror e submirror

In questo esempio, i nomi dei volumi vengono assegnati direttamente con il comando. Per il mirror d10, d11 è il nome del submirror del dispositivo c0t0d0s0 e d12 è il nome del submirror del dispositivo c1t0d0s0.


lucreate -n newbe -m /:/dev/md/dsk/d10:mirror,ufs \
-m /:/dev/dsk/c0t0d0s0,/dev/md/dsk/d11:attach \
-m /:/dev/dsk/c1t0d0s0,/dev/md/dsk/d12:attach

Per informazioni dettagliate sui requisiti di denominazione di Solaris Volume Manager, vedere il manuale Solaris Volume Manager Administration Guide.


Convenzioni di denominazione dei volumi RAID per il metodo JumpStart personalizzato

Quando si utilizza il metodo JumpStart personalizzato per creare i volumi RAID-1 (mirror) e RAID-0 (submirror), è possibile lasciare che il software rilevi ed assegni i nomi dei volumi oppure assegnarli direttamente nel profilo.


Nota –

È possibile abbreviare i nomi delle slice dei dischi fisici e dei volumi Solaris Volume Manager. L'abbreviazione è il nome più corto che può identificare un dispositivo in modo univoco. Qui di seguito sono riportati alcuni esempi.



Esempio 10–3 Consentire al software di rilevare e assegnare il nome al mirror e al submirror

Nell'esempio di profilo seguente, al mirror vengono assegnati i primi numeri di volume disponibili. Se il successivo mirror disponibile terminante in zero è d10 al submirror vengono assegnati i nomi d11 e d12.

filesys                 mirror c0t0d0s1  / 


Esempio 10–4 Assegnazione dei nomi a mirror e submirror

Nel seguente esempio di profilo, il numero del mirror (d30) viene assegnato dal profilo. I nomi dei submirror vengono assegnati dal software, in base al numero del mirror e a quello del primo submirror disponibile. I submirror sono denominati d31 e d32.

filesys                 mirror:d30 c0t1d0s0 c0t0d0s0  /

Per informazioni dettagliate sui requisiti di denominazione di Solaris Volume Manager, vedere il manuale Solaris Volume Manager Administration Guide.

Linee guida per la scelta di dischi e controller

Nella scelta dei dischi e dei controller da destinare al mirroring di un file system, tenere presenti le seguenti linee guida.

Linee guida per la scelta delle slice

Nella scelta delle slice da destinare al mirroring di un file system, tenere presenti le seguenti linee guida.

Nell'avvio in modalità monoutente, un messaggio indica che il mirror richiede manutenzione

Se un sistema in cui sono presenti mirror dei file system root (/), /usr e swap viene avviato in modalità monoutente, il sistema indica che è necessario eseguire la manutenzione dei mirror. Quando si visualizzano i mirror con il comando metastat, i mirror sopra indicati e potenzialmente tutti i mirror del sistema mostrano lo stato di richiesta di manutenzione.

Anche se la situazione può apparire potenzialmente rischiosa, in realtà non è così. Il comando metasync -r, che viene normalmente eseguito all'avvio per risincronizzare i mirror, viene interrotto quando il sistema si avvia in modalità monoutente. Dopo il reboot del sistema, il comando metasync -r viene eseguito e risincronizza tutti i mirror.

Se questa interruzione desta qualche preoccupazione, eseguire il comando metasync -r manualmente.

Per maggiori informazioni su metasync, vedere la pagina man metasync(1M) e il manuale Solaris Volume Manager Administration Guide.