Le Guide de démarrage rapide Sun Cluster Quick pour SE Solaris indique comment installer et configurer une configuration spécifique de Sun Cluster. Ces recommandations et procédures sont propres à SPARC® mais peuvent être extrapolées à des configurations basées x86. Associés aux manuels du matériel, des logiciels et des services de données SunTM Cluster, ces exemples de procédures peuvent également servir de recommandations pour configurer d'autres combinaisons matérielles et logicielles.
Ce manuel contient les recommandations et procédures suivantes :
Exécutez ces procédures en suivant leur ordre décrit dans ce manuel.
Cette section offre une description de la configuration spécifique de cluster utilisée dans ce manuel.
Les procédures indiquées dans le Guide de démarrage rapide Sun Cluster Quick pour SE Solaris partent du principe que le cluster se compose du matériel suivant et que le serveur a déjà été installé.
Tableau 1–1 Spécifications matérielles
Produit matériel |
Composants par ordinateur |
Instructions d'installation |
---|---|---|
Au moins 2 Go de mémoire | ||
Deux disques internes |
||
Deux ports embarqués, configurés pour l'interconnexion privée |
||
Deux cartes Sun Quad GigaSwift Ethernet (QGE), pour la connexion au réseau public et au réseau de gestion |
||
Deux cartes Fibre Channel-Arbitrated Loops (FC-AL), pour la connexion au stockage |
||
Un baie de stockage RAID Sun StorEdgeTM 3510 FC avec deux contrôleurs |
Douze unités physiques 73 Go |
Sun StorEdge 3000 Family Installation, Operation, and Service Manual, Sun StorEdge 3510 FC Array |
Une carte QGE, pour la connexion au réseau public |
Guide de démarrage de la station de travail Sun Ultra 20 (819–2148) |
Les procédures décrites dans Guide de démarrage rapide Sun Cluster Quick pour SE Solaris partent du principe que vous devez installer les versions suivantes des logiciels.
Tableau 1–2 Spécifications du logiciel
Les procédures décrites dans ce manuel permettent de configurer les services de données suivants :
Sun Cluster HA pour Apache sur un système de fichiers du cluster
Sun Cluster HA pour NFS sur un système de fichiers local hautement disponible
Sun Cluster HA pour Oracle sur un système de fichiers local hautement disponible
La procédure décrite dans le Guide de démarrage rapide Sun Cluster Quick pour SE Solaris part du principe que les adresses IP du réseau public sont créées pour les composants suivants.
Les adresses IP dans le tableau suivant sont données à titre d'exemple uniquement et ne sont pas valides sur le réseau public.
Les adresses suivantes sont utilisées pour la communication avec le sous-réseau public 192.168.10.
Tableau 1–3 Exemples d'adresses IP du réseau public
Composant |
Adresse IP |
Nom |
---|---|---|
Nœuds de cluster |
192.168.10.1 |
phys-sun |
192.168.10.2 |
phys-moon |
|
Nom d'hôte logique Sun Cluster HA pour Apache |
192.168.10.3 |
apache-lh |
Nom d'hôte logique Sun Cluster HA pour NFS |
192.168.10.4 |
nfs-lh |
Nom d'hôte logique Sun Cluster HA pour Oracle |
192.168.10.5 |
oracle-lh |
une console administrative ; |
192.168.10.6 |
admincon |
Les adresses suivantes sont utilisées pour la communication avec le sous-réseau de gestion 192.168.11.
Tableau 1–4 Exemples d'adresses IP de réseau de gestion
Composant |
Adresse IP |
Nom |
---|---|---|
Nœuds de cluster |
192.168.11.1 |
phys-sun-11 |
192.168.11.2 |
phys-moon-11 |
|
Baie de stockage RAID Sun StorEdge 3510 FC |
192.168.11.3 |
se3510fc |
une console administrative ; |
192.168.11.4 |
admincon-11 |
Les procédures de ce manuel ont été développées sur la base des hypothèses suivantes :
Service de nom - Le cluster utilise un service de nom.
Environnement de shell - Toutes les commandes et configurations d'environnement décrites dans ce manuel sont destinées à l'environnement de shell C. Si vous utilisez un autre shell, remplacez toutes les informations ou les instructions spécifiques au shell C par les informations appropriées, correspondant à l'environnement shell souhaité.
Connexion utilisateur - Sauf spécification contraire, exécutez toutes les procédures en tant que superutilisateur.
cconsole - Ces procédures partent du principe que vous utilisez l'utilitaire cconsole. Cet utilitaire vous permet d'accéder aux noeuds individuels et d'émettre des commandes pour tous les noeuds en même temps en utilisant la fenêtre principale cconsole.
Invites de commandes - L'invite phys-schost-N# vous indique de saisir la commande dans la fenêtre principale de la console cconsole. Cette action transmet la commande simultanément aux deux noeuds du cluster.
Les invites phys-sun#, phys-moon# et admincon# vous indiquent de saisir la commande uniquement dans la fenêtre principale de l'ordinateur spécifié.
La liste des tâches suivantes répertorie les tâches à créer pour exécuter une configuration de Sun Cluster pour les composants matériels et logiciels spécifiés dans ce manuel. Exécutez les tâches dans l'ordre du tableau.
Tableau 1–5 Liste des tâches : créer une configuration de démarrage rapide de Sun Cluster
Tâche |
Instructions |
---|---|
1. Connectez la console administrative, les noeuds de cluster et la baie de stockage. Configurez la baie de stockage. | |
2. Installez le SE Solaris et le logiciel Cluster Control Panel sur la console d'administration. Installez le SE Solaris, ainsi que le logiciel et les correctifs Sun Cluster sur les noeuds de cluster. Configurez le SE Solaris et les groupes IPMP. Créez des répliques de bases de données d'état. Reflétez le système de fichiers racine. Configurez les groupes et l'utilisateur du système Oracle. | |
3. Établissez le cluster et vérifiez la configuration. | |
4. Configurez Solaris Volume Manager et créez des ensembles de disques. | |
5. Créez le système de fichiers du cluster et les systèmes de fichiers locaux hautement disponibles. | |
6. Configurez le logiciel du serveur Apache HTTP. Installez et configurez le logiciel Oracle. | |
7. Utilisez Sun Cluster Manager pour configurer Sun Cluster HA pour Apache, Sun Cluster HA pour NFS et Sun Cluster HA pour Oracle. |
Exécutez les procédures suivantes pour connecter les composants matériels du cluster. Consultez votre documentation sur le matériel pour des informations et des instructions supplémentaires.
Le schéma suivant illustre le cablage pour cette configuration.
Pour faciliter l'installation, ces exemples de procédures d'installation s'appliquent à l'utilisation d'une console d'administration installée avec le logiciel Cluster Control Panel. Cependant, le logiciel Sun Cluster ne nécessite pas l'utilisation d'une console d'administration. Vous pouvez utiliser d'autres moyens pour contacter les noeuds de cluster, par exemple la commande telnet pour une connexion via le réseau public. Par ailleurs, il n'est pas nécessaire que les consoles d'administration soient dédiées exclusivement à être utilisées par un seul cluster.
Comme l'indique le schéma suivant, connecter ce0 et ce9 sur phys-sun à ce0 et ce9 sur phys-moon à l'aide de commutateurs.
Cette connexion forme l'interconnexion privée.
L'utilisation de commutateurs dans un cluster à deux noeuds facilite l'expansion si vous décidez d'ajouter davantage de noeuds au cluster.
Sur chaque noeud du cluster, connectez ce1 et ce5 au sous-réseau public.
Sur chaque noeud de cluster, connectez ce2 et ce6 au sous-réseau de gestion.
Connectez la baie de stockage au réseau de gestion.
Il est aussi possible de connecter la baie de stockage par câble série directement à la console d'administration.
Comme indiqué dans le schéma suivant, utilisez des câbles en fibre optique pour connecter la baie de stockage aux noeuds de cluster, deux connexions pour chaque noeud de cluster.
Un noeud se connecte à un port sur les canaux 0 et 5 de l'hôte. L'autre noeud se connecte à un port sur les canaux 1 et 4 de l'hôte.
Courant sur la baie de stockage et les DEL de contrôle.
Vérifiez que tous les composants sont sous tension et en état de marche. Suivez les procédures décrites dans First-Time Configuration for SCSI Arrays dans Sun StorEdge 3000 Family Installation, Operation, and Service Manual, Sun StorEdge 3510 FC Array .
Suivez la procédure dans le Sun StorEdge 3000 Family RAID Firmware 4.1x User’s Guide pour configurer la baie de stockage. Configurez la baie selon les spécifications suivantes.
Créez un disque hot spare global à partir du disque physique non utilisé.
Créez deux disques logiques RAID-5.
Pour éviter toute redondance, répartissez les disques physiques choisis pour chaque disque logique sur des canaux différents.
Ajoutez six disques physiques à un disque logique et affectez le disque logique au contrôleur principal de la baie de stockage, ports 0 et 5.
Ajoutez cinq disques physiques à l'autre disque logique et affectez le disque logique au contrôleur secondaire, ports 1 et 4.
Partitionnez les disques logiques en vue d'obtenir trois partitions.
Allouez le disque logique complet constitué de 6 disques à une seule partition.
Cette partition sera utilisée par Sun Cluster HA pour Oracle.
Créez deux partitions sur le disque logique à cinq disques.
Allouez 40 % d'espace sur le disque logique à une partition à utiliser par Sun Cluster HA pour NFS.
Allouez 10 % d'espace sur le disque logique à la seconde partition à utiliser par Sun Cluster HA pour Apache.
Laissez 50 % d'espace libre sur le disque logique, pour une autre utilisation, si nécessaire.
Mappez chaque partition de disque logique sur un numéro d'unité logique d'hôte (LUN).
Utilisation des partitions |
LUN |
---|---|
Oracle |
LUN0 |
NFS |
LUN1 |
Apache |
LUN2 |
Notez le World Wide Name (WWN) de chaque LUN.
Plus loin dans ce manuel, cette information vous permettra de créer les ensembles de disques.
Les procédures suivantes vous permettent d'installer les packages et les correctifs pour toutes les procédures logicielles et de configurer l'environnement de l'utilisateur.
Vous apprendrez à installer le logiciel Oracle plus loin dans ce manuel.
Vous devez disposer des éléments suivants :
Le DVD-ROM pour Java Availability Suite contenant le logiciel Sun Cluster 3.2.
L'accès au site Web SunSolveSM pour télécharger des correctifs.
Devenez superutilisateur de la console administrative.
Si ce n'est déjà fait, configurez le logiciel Solaris 10 11/06 préinstallé.
Pour plus d'informations, reportez-vous au manuel Sun Ultra 20 Workstation Getting Started Guide (819–2148).
Téléchargez, installez et configurez Sun Update Connection.
Consultez http://www.sun.com/service/sunupdate/gettingstarted.html pour plus de détails. La documentation relative à Sun Update Connection est disponible à l'adresse http://docs.sun.com/app/docs/coll/1320.2.
Téléchargez et appliquez les correctifs Solaris 10 à l'aide de Sun Update Connection.
Chargez le DVD-ROM pour Java Availability Suite dans le lecteur DVD-ROM.
Changez l'emplacement en optant pour le répertoire Solaris_sparc/Product/sun_cluster/Solaris_10/Packages/.
Installez les packages de logiciel pour Cluster Control Panel et les pages de l'aide en ligne.
admincon# pkgadd -d . SUNWccon SUNWscman |
Passez à un répertoire qui ne se trouve pas sur le DVD-ROM et éjectez le DVD-ROM.
host# cd / host# eject cdrom |
Créez un fichier /etc/cluster contenant le nom de cluster et les deux noms de noeud.
admincon# vi /etc/clusters sccluster phys-sun phys-moon |
Créez un fichier /etc/serialports contenant les deux noms de noeud, le nom d'hôte et le numéro de port utilisés par chaque noeud pour se connecter au réseau de gestion.
admincon# vi /etc/serialports phys-sun phys-sun 46 phys-moon phys-moon 47 |
Ajoutez Sun Cluster PATH et MANPATH au fichier d'initialisation de l'utilisateur .cshrc.
Ajoutez /opt/SUNWcluster/bin à l'entrée PATH.
Ajoutez /opt/SUNWcluster/man et /usr/cluster/man à l'entrée MANPATH.
Initialisez vos modifications.
admincon# cd admincon# source .cshrc |
Cette procédure décrit comment installer le système d'exploitation Solaris 10 de manière à répondre aux conditions d'installation requises de Sun Cluster.
Si votre système est déjà équipé du système d'exploitation Solaris mais qu'il ne correspond pas aux conditions d'installation requises du logiciel Sun Cluster, exécutez cette procédure pour répondre aux conditions d'installation.
Vous devez disposer des éléments suivants :
Le logiciel Solaris 10 11/06 pour les DVD-ROM de plates-formes SPARC.
L'accès au site Web SunSolve pour télécharger des correctifs.
Ajoutez au service d'attribution de noms tous les noms d'hôte publics et les adresses logiques correspondant au cluster.
Les adresses IP fournies dans cette étape ont valeur d'exemple uniquement et leur utilisation sur le réseau public n'est pas valide. Remplacez-les par vos propres adresses IP lorsque vous effectuez cette étape.
192.168.10.1 phys-sun 192.168.10.2 phys-moon 192.168.10.3 apache-lh 192.168.10.4 nfs-lh 192.168.10.5 oracle-lh 192.168.10.6 admincon 192.168.11.1 phys-sun-11 192.168.11.2 phys-moon-11 192.168.11.3 se3510fc 192.168.11.4 admincon-11 |
Pour plus d'informations sur les services d'attribution de noms, reportez-vous au manuel System Administration Guide: Naming and Directory Services (DNS, NIS, and LDAP) .
À partir de la console d'administration, démarrez l'utilitaire cconsole(1M).
admincon# cconsole & |
Utilisez l'utilitaire cconsole pour communiquer avec chaque noeud de cluster ou utilisez la fenêtre principale pour envoyer des commandes aux deux noeuds en même temps.
Insérez le DVD-ROM Solaris 10 11/06 dans le lecteur DVD-ROM de phys-sun.
Accédez à la fenêtre de la console de phys-sun.
Initialisez phys-sun.
Si le système est nouveau, activez-le.
Si le système est en cours d'exécution, fermez-le.
phys-sun# init 0 |
L'invite ok s'affiche.
Désactivez la réinitialisation automatique.
ok setenv auto-boot? false |
La désactivation de la réinitialisation automatique évite un cycle d'initialisation continu.
Créez un alias pour chaque disque.
Attribuer des alias aux disques vous permet d'accéder et d'initialiser à partir du second disque si vous ne pouvez pas initialiser à partir du disque par défaut.
Affichez les disques et sélectionnez le disque d'initialisation.
ok show-disks … Entrez une sélection, q pour quitter : X |
Assignez le nom d'alias rootdisk au disque choisi.
ok nvalias rootdisk Control-Y |
La combinaison de touche Ctrl-Y permet de saisir le nom du disque choisi à partir du menu show-disks.
Enregistrez l'alias du disque.
ok nvstore |
Répétez les étapes précédentes pour identifier et affecter le nom d'alias backup_root à l'autre disque d'initialisation.
Définissez la variable d'environnement boot-device pour les alias correspondant au disque d'initialisation par défaut et au disque d'initialisation de sauvegarde.
ok setenv boot-device rootdisk backup_root |
Pour plus d'informations, reportez-vous au manuel OpenBoot 4.x Command Reference Manual .
Démarrez le programme d'installation de Solaris.
ok boot cdrom |
Suivez les instructions.
Faites les choix d'installation suivants :
Invite |
Valeur |
---|---|
Groupe de logiciels Solaris |
Support OEM Entire Plus |
Partitions |
Formatage manuel |
le mot de passe root. |
Mot de passe identique sur les deux noeuds |
Réinitialisation automatique |
Non |
Activer les services de réseau pour les clients distants |
Oui |
Si vous ne l'avez pas encore fait, définissez les tailles de partitions et les noms de fichiers système suivants :
Tranche |
Taille |
Nom du système de fichiers |
---|---|---|
0 |
espace disponible restant |
/ |
1 |
2 Go |
espace d'échange |
4 |
512 Mo |
/globaldevices |
5 |
2 Go |
/var |
7 |
32 Mo |
pour l'utilisation de Solaris Volume Manager |
Retournez à l'étape Étape 3 et répétez ces étapes sur phys-moon.
Sur les deux noeuds, téléchargez, installez et configurez Sun Update Connection.
Pour plus d'informations, reportez-vous à http://www.sun.com/service/sunupdate/gettingstarted.html. La documentation relative à Sun Update Connection est disponible à l'adresse http://docs.sun.com/app/docs/coll/1320.2 .
Sur les deux noeuds, téléchargez et appliquez les correctifs Solaris 10 à l'aide de Sun Update Connection.
Effectuez cette procédure sur les deux noeuds. Les étapes décrites dans cette procédure utilisent l'environnement de shell C. Si vous utilisez un autre shell, effectuez les mêmes tâches pour l'environnement de shell choisi.
Pour plus d'informations, reportez-vous à la section Customizing a User’s Work Environment du System Administration Guide: Basic Administration.
Ouvrez la fenêtre de la console principale cconsole, si elle est fermée.
La fenêtre de la console principale permet d'exécuter les étapes de cette procédure simultanément sur les deux noeuds.
Affichez les paramètres de la variable umask et des variables d'environnement.
phys-X# umask phys-X# env | more |
Si ce n'est déjà fait, définissez umask sur 22.
Cette entrée définit les permissions par défaut pour les fichiers créés récemment.
umask 022 |
Asurez-vous que PATH comprend les chemins suivants.
/usr/bin
/usr/cluster/bin
/usr/sbin
/oracle/oracle/product/10.2.0/bin
(Facultatif) Ajoutez les chemins suivants à MANPATH.
/usr/cluster/man
/usr/apache/man
Définissez les variables d'environnement ORACLE_BASE et ORACLE_SID.
ORACLE_BASE=/oracle ORACLE_SID=orasrvr |
Vérifiez les modifications que vous apportez aux paramètres.
phys-X# umask phys-X# env | more |
Cette procédure décrit comment modifier certains paramètres du système afin de prendre en charge la configuration du démarrage rapide.
Activez la fonctionnalité de multiacheminement Solaris sur les deux noeuds.
phys-X# /usr/sbin/stmsboot -e |
Active le multiacheminement Solaris
Pour plus d'informations, reportez-vous à la page d'aide en ligne stmsboot(1M).
Sur les deux noeuds, mettez à jour le fichier /etc/inet/ipnodes avec tous les noms d'hôte publics et les adresses logiques pour le cluster.
En dehors des entrées loghost, ces entrées sont les mêmes sur les deux noeuds.
Les adresses IP fournies dans cette étape ont valeur d'exemple uniquement et leur utilisation n'est pas valide sur le réseau public. Remplacez-les par vos propres adresses IP lorsque vous effectuez cette étape.
phys-X# vi /etc/inet/ipnodes |
Sur phys-sun, ajoutez les entrées suivantes :
127.0.0.1 localhost 192.168.10.1 phys-sun loghost 192.168.10.2 phys-moon 192.168.10.3 apache-lh 192.168.10.4 nfs-lh 192.168.10.5 oracle-lh 192.168.10.6 admincon 192.168.11.1 phys-sun-11 192.168.11.2 phys-moon-11 192.168.11.3 se3510fc-11 192.168.11.4 admincon-11 |
Sur phys-moon, ajoutez les entrées suivantes :
127.0.0.1 localhost 192.168.10.1 phys-sun 192.168.10.2 phys-moon loghost 192.168.10.3 apache-lh 192.168.10.4 nfs-lh 192.168.10.5 oracle-lh 192.168.10.6 admincon 192.168.11.1 phys-sun-11 192.168.11.2 phys-moon-11 192.168.11.3 se3510fc-11 192.168.11.4 admincon-11 |
Sur les deux noeuds, assurez-vous que les paramètres de noyau suivants sont définis au moins sur les valeurs minimums requises par Oracle.
Affichez les paramètres pour le projet par défaut.
phys-X# prctl -i project default |
Si aucun paramètre de noyau n'est défini ou si des paramètres de noyau ne sont pas définis sur la valeur minimum requise pour Oracle, comme indiqué dans le tableau suivant, définissez le paramètre.
phys-X# projmod -s -K "parameter=(priv,value,deny)" default |
Paramètre de noyau Oracle |
Valeur minimum requise |
---|---|
process.max-sem-nsems |
256 |
project.max-sem-ids |
100 |
project.max-shm-ids |
100 |
project.max-shm-memory |
4294967295 |
Vérifiez les nouveaux paramètres.
phys-X# prctl -i project default |
Ces paramètres correspondent aux valeurs minimum requises pour prendre en charge le logiciel Oracle dans une configuration de démarrage rapide de Sun Cluster. Pour plus d'informations sur ces paramètres, reportez-vous au manuel Oracle10g Installation Guide.
Sur les deux noeuds, ajoutez les entrées suivantes au fichier /etc/system.
phys-X# vi /etc/system set ce:ce_taskq_disable=1 exclude:lofs |
La première entrée prend en charge les adaptateurs ce pour l'interconnexion privée.
La deuxième entrée désactive le système de fichier loopback (LOFS), qui doit être désactivé quand Sun Cluster HA pour NFS est configuré sur un système de fichiers hautement disponible. Pour plus d'informations et des alternatives à la désactivation du LOFS lorsque Sun Cluster HA pour NFS est configuré, reportez-vous aux informations relatives aux systèmes de fichiers loopback de la section Restrictions d’utilisation des fonctions du système d’exploitation Solaris du Guide d’installation du logiciel Sun Cluster pour SE Solaris.
Ces changements sont pris en compte à la réinitialisation suivante du système.
Sur les deux noeuds, définissez la version 3 de NFS en tant que version par défaut.
Mettez à jour les entrées /devices et /dev sur les deux noeuds.
phys-X# devfsadm -C |
Sur les deux noeuds, confirmez que la baie de stockage est visible.
phys-X# luxadm probe |
Cette procédure part du principe que les disques spécifiés sont disponibles pour la création de répliques de base de données. Dans cette procédure, utilisez les noms de vos propres disques.
Sur les deux noeuds, créez des répliques de base de données d'état.
Créez trois répliques sur chacun des deux disques internes.
phys-X# metadb -af -c 3 c0t0d0s7 phys-X# metadb -a -c 3 c0t1d0s7 |
Vérifiez les répliques sur les deux noeuds.
phys-X# metadb indicateurs premier bloc nombre de blocs a u 16 8192 /dev/dsk/c0t0d0s7 a u 8208 8192 /dev/dsk/c0t0d0s7 a u 16400 8192 /dev/dsk/c0t0d0s7 a u 16 8192 /dev/dsk/c0t1d0s7 a u 8208 8192 /dev/dsk/c0t1d0s7 a u 16400 8192 /dev/dsk/c0t1d0s7 |
Exécutez cette procédure sur un seul nœud à la fois.
Cette procédure part du principe que le noeud de cluster contient les disques internes non partagés c0t0d0 et c0t1d0. Si nécessaires, utilisez les noms de vos propres disques internes dans les étapes de cette procédure.
Sur phys-sun, placez la tranche racine c0t0d0s0 dans une concaténation à une seule tranche.
phys-sun# metainit -f d10 1 1 c0t0d0s0 |
Créez une seconde concaténation avec l'autre disque interne, c0t1d0s0.
phys-sun# metainit d20 1 1 c0t1d0s0 |
Créez un miroir à une voie avec un sous-miroir.
phys-sun# metainit d0 -m d10 |
Définissez les fichiers système pour le répertoire racine.
phys-sun# metaroot d0 |
La commande metaroot modifie les fichiers /etc/vfstab et /etc/system de sorte que le système puisse être initialisé avec le système de fichiers racine(/) sur un métapériphérique ou un volume. Pour plus d'informations, reportez-vous à la page d'aide en ligne metaroot(1M).
Videz tous les systèmes de fichiers.
phys-sun# lockfs -fa |
La commande lockfs élimine toutes les transactions du journal et les écrit dans le système de fichiers principal sur tous les systèmes de fichiers UFS montés. Pour plus d'informations, reportez-vous à la page d'aide en ligne lockfs(1M).
Réinitialisez le noeud pour remonter le système de fichiers racine(/) récemment reflété.
phys-sun# init 6 |
Attachez le deuxième sous-miroir au miroir.
phys-sun# metattach d0 d20 |
Pour plus d'informations, reportez-vous à la page d'aide en ligne metattach(1M).
Prenez note de l'autre chemin de démarrage, pour utilisation ultérieure éventuelle.
Si le périphérique de démarrage principal échoue, vous pouvez ainsi procéder à l'initialisation à partir de cet autre périphérique de démarrage. Pour plus d'informations sur les autres périphériques d'initialisation, reportez-vous à la section Creating a RAID-1 Volume du Solaris Volume Manager Administration Guide.
phys-sun# ls -l /dev/rdsk/c0t1d0s0 |
Cette procédure permet d'installer les packages de logiciels pour la structure Sun Cluster et pour les services de données Sun Cluster HA pour Apache, Sun Cluster HA pour NFS et Sun Cluster HA pour Oracle.
Veillez à disposer des éléments suivants :
Le DVD-ROM pour Java Availability Suite contenant le logiciel Sun Cluster 3.2.
L'accès au site Web SunSolve pour télécharger des correctifs.
Sur phys-sun, chargez le DVD-ROM pour Java Availability Suite dans le lecteur de DVD-ROM.
Démarrez le programme installer de Java Enterprise System (ES).
phys-sun# ./installer |
Pour plus d'informations sur l'utilisation du programme installer de Java ES, reportez-vous au manuel Sun Java Enterprise System 5 Installation Guide for UNIX .
Suivez les instructions à l'écran pour installer les packages de structure de Sun Cluster.
Lorsque l'installation est terminée, le programme installer propose une synthèse d'installation. permettant de consulter les journaux créés par le programme pendant l'installation. Ces journaux se trouvent dans le répertoire /var/sadm/install/logs/.
Passez à un répertoire qui ne se trouve pas sur le DVD-ROM et éjectez le DVD-ROM.
host# cd / host# eject cdrom |
Retournez à l'étape Étape 1 et répétez toutes les étapes sur phys-moon.
Sur les deux noeuds, utilisez Sun Update Connection pour télécharger et appliquer les correctifs nécessaires.
Effectuez les étapes de cette procédure sur les deux noeuds.
Ouvrez la fenêtre de la console principale cconsole, si elle est fermée.
La fenêtre de la console principale permet d'exécuter les étapes de cette procédure simultanément sur les deux noeuds.
Créez le groupe d'inventaire Oracle oinstall et le groupe d'administrateurs de base de données dba.
phys-X# groupadd oinstall phys-X# groupadd dba |
Créez le compte utilisateur Oracle, oracle.
Spécifiez le répertoire de base Oracle, /oracle/oracle/product/10.2.0. Définissez dba en tant que groupe primaire et oinstall en tant que groupe secondaire.
phys-X# useradd -g dba -G oinstall -d /oracle/oracle/product/10.2.0 oracle |
Définissez le mot de passe oracle.
phys-X# passwd -r files oracle |
Exécutez la procédure suivante pour établir le cluster.
À partir de phys-moon, démarrez l'utilitaire interactif scinstall.
phys-moon# scinstall |
Le menu principal scinstall s'affiche.
Saisissez le numéro correspondant à l'option de création d'un cluster ou d'un noeud de cluster, puis appuyez sur la touche Retour.
Le menu Nouveau cluster et Nœud de cluster apparaît.
Saisissez le numéro correspondant à l'option de création d'un cluster, puis appuyez sur la touche Retour.
Le menu Standard ou Personnalisé apparaît.
Saisissez le numéro correspondant à l'option Standard, puis appuyez sur la touche Retour.
Suivez les invites de menu pour fournir les informations suivantes :
Les noms des adaptateurs utilisés dans le tableau suivant sont sélectionnés de manière arbitraire pour cet exemple uniquement.
Composant |
Description |
Réponse |
---|---|---|
Nom du cluster |
Quel est le nom du cluster que vous souhaitez établir ? |
sccluster |
Noeuds de cluster |
Faites la liste des noms des autres noeuds. |
phys-sun |
Câbles et adaptateurs de transport de cluster |
Quels sont les noms des deux adaptateurs de transport intracluster reliant le noeud à l'interconnexion privée ? |
ce0, ce9 |
Configuration d'un quorum |
Voulez-vous désactiver la sélection automatique de périphérique de quorum ? |
Non |
Contrôler |
Souhaitez-vous interrompre l'installation en cas d'erreur de sccheck ? |
Non |
L'utilitaire scinstall permet de configurer le cluster et de réinitialiser les deux noeuds. Il crée également automatiquement un groupe IPMP à plusieurs adaptateurs, basé sur des liens, pour chaque ensemble d'adaptateurs de réseau public dans le cluster utilisant le même sous-réseau. Le cluster est établi une fois que ses deux noeuds ont été correctement initialisés. Les informations relatives à l'installation de Sun Cluster sont consignées dans le fichier /var/cluster/logs/install/scinstall.log. N.
À partir de phys-sun, vérifiez que les noeuds et le périphérique de quorum sont correctement configurés.
Si le cluster est correctement établi, des résultats de ce type s'affichent :
phys-sun# clquorum list d5 phys-sun phys-moon |
Effectuez les procédures suivantes pour configurer la gestion de volume.
À partir de phys-sun, créez un jeu de disques pour chaque service de données que vous allez configurer.
Faites de phys-sun le noeud principal pour les services de données Apache et NFS.
phys-sun# metaset -s nfsset -a -h phys-sun phys-moon phys-sun# metaset -s apacheset -a -h phys-sun phys-moon |
Faites de phys-moon le noeud principal pour le service de données Oracle.
phys-sun# metaset -s oraset -a -h phys-moon phys-sun |
Vérifiez que la configuration des jeux de disques est correcte et visible pour les deux noeuds.
phys-X# metaset Set name = nfsset, Set number = 1 … Set name = apacheset, Set number = 2 … Set name = oraset, Set number = 3 … |
À partir de phys-sun, faites la liste des mappages DID.
Le résultat se présente comme suit (WWN correspond au World Wide Number de la cible du disque).
phys-sun# cldevice show | grep Device === DID Device Instances === DID Device Name: /dev/did/rdsk/d1 Full Device Path: phys-sun:/dev/rdsk/c0t0d0 DID Device Name: /dev/did/rdsk/d2 Full Device Path: phys-sun:/dev/rdsk/c0t6d0 DID Device Name: /dev/did/rdsk/d3 Full Device Path: phys-sun:/dev/rdsk/c1tWWNd0 Full Device Path: phys-moon:/dev/rdsk/c1tWWNd0 DID Device Name: /dev/did/rdsk/d4 Full Device Path: phys-sun:/dev/rdsk/c1tWWNd0 Full Device Path: phys-moon:/dev/rdsk/c1tWWNd0 DID Device Name: /dev/did/rdsk/d5 Full Device Path: phys-sun:/dev/rdsk/c0tWWNd0 Full Device Path: phys-moon:/dev/rdsk/c0tWWNd0 … |
Mappez LUN0, LUN1 et LUN2 sur leurs noms de périphériques DID.
Comparez les informations que vous avez enregistrées lorsque vous avez créé les LUN avec le résultat de la commande cldevice. Pour chaque LUN, localisez le nom /dev/rdsk/c NtWWNdY associé avec le LUN. Localisez ensuite le même nom de disque dans le résultat de la commande cldevice afin de déterminer le nom de périphérique du DID.
Ces procédures partent des mappages suivants pour illustrer cet exemple. Remplacez les noms de disques et de DID par les vôtres lorsque vous effectuez ces procédures.
Service de données |
Nom du LUN |
Nom de périphérique du disque brut |
Nom du DID |
---|---|---|---|
Sun Cluster HA pour Oracle |
LUN0 |
/dev/did/rdsk/c1tWWNd0 |
dsk/d3 |
Sun Cluster HA pour NFS |
LUN1 |
/dev/did/rdsk/c1tWWNd0 |
dsk/d4 |
Sun Cluster HA pour Apache |
LUN2 |
/dev/did/rdsk/c0tWWNd0 |
dsk/d5 |
Prenez possession du jeu de disques Oracle oraset.
phys-sun# cldevicegroup switch -n phys-sun oraset |
Ajoutez LUN0 au jeu de disques Oracle.
Utilisez le nom de chemin DID complet.
phys-sun# metaset -s oraset -a /dev/did/rdsk/d3 |
Vérifiez que la configuration du jeu de disque est correcte.
phys-sun# metaset -s oraset |
Répétez le processus pour ajouter LUN1 au jeu de disques NFSnfsset.
phys-sun# cldevicegroup switch -n phys-sun nfsset phys-sun# metaset -s nfsset -a /dev/did/rdsk/d4 phys-sun# metaset -s nfsset |
Répétez le processus pour ajouter LUN2 au jeu de disques Apache apacheset.
phys-sun# cldevicegroup switch -n phys-sun apacheset phys-sun# metaset -s apacheset -a /dev/did/rdsk/d5 phys-sun# metaset -s apacheset |
Sur les deux noeuds, créez un fichier /etc/lvm/md.tab avec les entrées suivantes.
Ces entrées définissent les volumes de chaque jeu de disques. Les miroirs unidirectionnels offrent la possibilité d'ajouter un miroir ultérieurement, sans démonter le système de fichiers. Vous pouvez créer le fichier sur un noeud et le copier sur l'autre noeud ou vous pouvez le créer sur les deux noeuds en même temps en utilisant l'utilitaire cconsole(1M).
apacheset/d0 -m apacheset/d10 apacheset/d10 1 1 /dev/did/rdsk/d3s0 nfsset/d1 -m nfsset/d11 nfsset/d11 1 1 /dev/did/rdsk/d4s0 oraset/d2 -m oraset/d12 oraset/d12 1 1 /dev/did/rdsk/d5s0 oraset/d0 -p oraset/d2 3G oraset/d1 -p oraset/d2 3G |
À partir de phys-sun, prenez possession de chaque jeu de disques et activez leur volumes.
phys-sun# cldevicegroup switch -n phys-sun apacheset phys-sun# metainit -s apacheset -a phys-sun# cldevicegroup switch -n phys-sun nfsset phys-sun# metainit -s nfsset -a phys-moon# cldevicegroup switch -n phys-sun oraset phys-moon# metainit -s oraset -a |
Vérifiez l'état des volumes pour chaque jeu de disques.
phys-sun# metastat … Status: Okay … |
Effectuez la procédure suivante pour créer un système de fichiers de cluster et des systèmes de fichiers locaux afin de prendre en charge les services de données.
Cette procédure permet de créer un système de fichiers de cluster destiné à être utilisé par Sun Cluster HA pour Apache et des systèmes de fichiers locaux destinés à être utilisés par Sun Cluster HA pour NFS et Sun Cluster HA pour Oracle. Plus loin dans ce manuel, les systèmes de fichiers locaux sont configurés comme hautement disponibles grâce à l'utilisation de HAStoragePlus.
À partir de phys-sun, créez les systèmes de fichiers UFS.
phys-sun# newfs /dev/md/apacheset/rdsk/d0 phys-sun# newfs /dev/md/nfsset/rdsk/d1 phys-sun# newfs /dev/md/oraset/rdsk/d0 phys-sun# newfs /dev/md/oraset/rdsk/d1 |
Sur chaque noeud, créez un répertoire de point de montage pour chaque système de fichiers.
phys-X# mkdir -p /global/apache phys-X# mkdir -p /local/nfs phys-X# mkdir -p /oracle/oracle/product/10.2.0 phys-X# mkdir -p /oradata/10gR2 |
Pour le répertoire de base et le répertoire de base de données, définissez le propriétaire, le groupe et le mode.
Définissez le propriétaire en tant que oracle et le groupe en tant que dba.
phys-X# chown -R oracle:dba /oracle/oracle/product/10.2.0 phys-X# chown -R oracle:dba /oradata/10gR2 |
N'accordez les droits en écriture des répertoires Oracle qu'au propriétaire et au groupe.
phys-X# chmod -R 775 /oracle/oracle/product/10.2.0 phys-X# chmod -R 775 /oradata/10gR2 |
Sur chaque noeud, ajoutez une entrée au fichier /etc/vfstab pour chaque point de montage.
Seul le système de fichiers pour Apache utilise l'option de montage global. Ne spécifiez pas l'option de montage global pour les systèmes de fichiers locaux NFS et Oracle.
phys-X# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/apacheset/dsk/d0 /dev/md/apacheset/rdsk/d0 /global/apache ufs 2 yes global,logging /dev/md/nfsset/dsk/d1 /dev/md/nfsset/rdsk/d1 /local/nfs ufs 2 no logging /dev/md/oraset/dsk/d0 /dev/md/oraset/rdsk/d0 /oracle/oracle/product/10.2.0 ufs 2 no logging /dev/md/oraset/dsk/d1 /dev/md/oraset/rdsk/d1 /oradata/10gR2 ufs 2 no logging,forcedirectio |
À partir de phys-sun, vérifiez que les points de montage existent.
phys-sun# cluster check |
Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.
À partir de phys-sun, montez les systèmes de fichiers.
phys-sun# mount /global/apache phys-sun# mount /local/nfs phys-sun# mount /oracle/oracle/product/10.2.0 phys-sun# mount /oradata/10gR2 |
Sur chaque noeud, vérifiez que les systèmes de fichiers sont montés.
Seul le système de fichiers de cluster pour Apache s'affiche sur les deux noeuds.
phys-sun# mount … /global/apache on /dev/md/apacheset/dsk/d0 read/write/setuid/global/logging on Sun Oct 3 08:56:16 2005 /local/nfs on /dev/md/nfsset/dsk/d1 read/write/setuid/logging on Sun Oct 3 08:56:16 2005 /oracle/oracle/product/10.2.0 on /dev/md/oraset/dsk/d0 read/write/setuid/logging on Sun Oct 3 08:56:16 2005 /oradata/10gR2 on /dev/md/oraset/dsk/d1 read/write/setuid/logging/forcedirectio on Sun Oct 3 08:56:16 2005 phys-moon# mount … /global/apache on /dev/md/apacheset/dsk/d0 read/write/setuid/global/logging on Sun Oct 3 08:56:16 2005 |
Effectuez les procédures suivantes pour configurer les logiciels Apache, installer les logiciels Oracle et configurer la base de données Oracle.
Cette procédure permet de configurer le logiciel Apache HTTP Server version 1.3 à l'aide de mod_ssl. Pour plus d'informations, reportez-vous à la documentation en ligne Apache installée à file:///usr/apache/htdocs/manual/index.html.html, le site Web Apache HTTP Server à http://httpd.apache.org/docs/1.3/ et le site Web Apache mod_ssl à http://www.modssl.org/docs/.
Utilisez la fenêtre principale cconsole pour accéder aux deux noeuds.
Vous pouvez effectuer les étapes suivantes sur les deux noeuds en même temps.
Modifiez le fichier de configuration /etc/apache/httpd.conf.
Installez tous les certificats et toutes les clés.
Dans le répertoire /usr/apache/bin, créez le fichier keypass.
Définissez les permissions de fichier pour un accès propriétaire uniquement.
phys-X# cd /usr/apache/bin phys-X# touch keypass phys-X# chmod 700 keypass |
Modifiez le fichier keypass de sorte qu'il imprime la phrase de passe pour la clé chiffrée correspondant à un hôte et à un port.
Ce fichier sera appelé avec server:port algorithm en tant qu'argument. Assurez-vous que le fichier peut imprimer la phrase de passe correspondant à chacune de vos clés chiffrées, lorsqu'elle est appelée avec les bons paramètres.
Ensuite, lorsque vous essaierez de démarrer le serveur Web manuellement, il ne devra pas vous demander une phrase de passe. Par exemple, supposons qu'un serveur Web sécurisé est en écoute sur les ports 8080 et 8888, avec des clés privées pour les deux ports chiffrés par RSA. Le fichier keypass pourrait se présenter comme suit :
# !/bin/ksh host=`echo $1 | cut -d: -f1` port=`echo $1 | cut -d: -f2` algorithm=$2 if [ "$host" = "apache-lh.example.com" -a "$algorithm" = "RSA" ]; then case "$port" in 8080) echo passphrase-for-8080;; 8888) echo passphrase-for-8888;; esac fi |
Mettez à jour les chemins dans le fichier script Apache de démarrage ou d'arrêt /usr/apache/bin/apachect1, s'ils sont différents de votre structure de répertoire Apache.
Vérifiez vos modifications de configuration.
Vérifiez que la syntaxe du fichier /etc/apache/httpd.conf est correcte.
phys-X# /usr/apache/bin/apachectl configtest |
Assurez-vous que tous les noms d'hôte logiques ou adresses partagées qu'utilise Apache sont configurés et en ligne.
Sur phys-sun, démarrez le serveur Apache.
phys-sun# /usr/apache/bin/apachectl startssl |
Assurez-vous que le serveur Web ne vous demande pas de phrase de passe.
Si Apache ne démarre pas correctement, corrigez le problème.
Sur phys-sun, arrêtez le serveur Apache.
phys-sun# /usr/apache/bin/apachectl stopssl |
Vous devez disposer des éléments suivants :
Le DVD d'installation Oracle 10gR2.
Les correctifs Oracle.
La documentation d'installation Oracle.
Sur phys-sun, devenez un utilisateur oracle.
phys-sun# su - oracle |
Accédez au répertoire /tmp.
phys-sun# cd /tmp |
Insérez le disque du produit Oracle.
Si le démon de gestion du volume vold(1M) est en cours d'exécution et configuré pour gérer les DVD-ROM, le démon monte automatiquement le DVD-ROM Oracle 10gR2 dans le répertoire /cdrom/cdrom0.
Démarrez Oracle Universal Installer.
phys-sun# /cdrom/cdrom0/Disk1/runInstaller |
Pour plus d'informations sur l'utilisation d'Oracle Universal Installer, reportez-vous au manuel Oracle Database Client Installation Guide for Solaris Operating System (SPARC 64–Bit).
Suivez les invites pour installer le logiciel Oracle.
Spécifiez les valeurs suivantes :
Composant Oracle |
Valeur |
---|---|
Emplacement du fichier source |
/cdrom/cdrom0/Disk1/products.jar |
Emplacement du fichier de destination (la valeur de $ORACLE_HOME) |
/oracle/oracle/product/10.2.0 |
Nom de groupe UNIX |
dba |
Produits disponibles |
Oracle 10g Enterprise Edition ou Standard Edition |
Type de configuration de base de données |
Général |
Type d'installation |
Type |
Nom de base de données global |
orasrvr |
SID (identificateur système Oracle) |
orasrvr |
Emplacement de fichier de base de données |
/oradata/10gR2 |
Jeu de caractères de la base de données |
Par défaut |
Pour plus d'informations, reportez-vous au manuel Oracle Database Client Installation Guide for Solaris Operating System (SPARC 64–Bit).
Accédez à un répertoire ne figurant pas sur le DVD, puis éjectez ce dernier.
phys-sun# eject cdrom |
Appliquez les correctifs Oracle.
Vérifiez que le propriétaire, le groupe et le mode du fichier /oracle/oracle/product/10.2.0/bin/oracle sont corrects.
phys-sun# ls -l /oracle/oracle/product/10.2.0/bin/oracle -rwsr-s--x 1 oracle dba 3195 Apr 27 2005 oracle |
Vérifiez que les fichiers binaires du listener existent dans le répertoire /oracle/oracle/product/10.2.0/bin/.
Les fichiers binaires du listener Oracle comprennent la commande lsnrctl et la commande tnsping.
Quittez l'utilisateur oracle.
L'invite de superutilisateur s'affiche à nouveau.
Empêchez le démon cssd Oracle de démarrer.
Supprimez l'entrée suivante du fichier /etc/inittab. Cette action empêche l'affichage des messages d'erreur superflus.
h1:23:respawn:/etc/init.d/init.cssd run >/dev/null 2>&| > </dev/null |
Répétez cette procédure sur phys-moon.
Tenez à votre disposition la documentation d'installation Oracle. Reportez-vous à ces procédures pour exécuter les tâches suivantes.
Sur phys-sun, préparez les fichiers de configuration de la base de données.
Placez tous les fichiers associés à la base de données (fichiers de données, fichiers journaux de restauration et fichiers de contrôle) dans le répertoire /oradata/10gR2.
Dans les fichiers init$ORACLE_SID.ora ou config$ORACLE_SID.ora, modifiez les affectations pour control_files et background_dump_dest afin de spécifier l'emplacement des fichiers de contrôle.
Démarrez la création de la base de données en utilisant un utilitaire de la liste suivante :
Oracle Database Configuration Assistant (DBCA)
La commande sqlplus(1M) Oracle
Pendant la création, assurez-vous que tous les fichiers associés à la base de données sont placés dans le répertoire /oradata/10gR2.
Vérifiez que les noms de vos fichiers de contrôle correspondent aux noms de vos fichiers de configuration.
Exécutez les scripts de catalogue qui créent l'affichage v$sysstat. Le détecteur de pannes Sun Cluster HA pour Oracle utilise cet affichage.
Effectuez cette procédure sur les deux noeuds.
Activez l'accès pour autoriser l'utilisation de l'utilisateur et du mot de passe Oracle par le détecteur de pannes.
La méthode d'authentification Oracle donne à l'utilisateur oracle autorité sur les affichages v_$sysstat et v_$archive_dest.
phys-X# sqlplus "/ as sysdba" sql> grant connect, resource to user identified by passwd; sql> alter user oracle default tablespace system quota 1m on system; sql> grant select on v_$sysstat to oracle; sql> grant select on v_$archive_dest to oracle; sql> grant create session to oracle; sql> grant create table to oracle; sql> exit; # |
Configurez NET8 pour le logiciel Sun Cluster.
Définissez les entrées suivantes dans le fichier par défaut /oracle/oracle/product/10.2.0/network/admin/listener.ora.
HOST = oracle-lh POST = 1521 |
Définissez les mêmes entrées dans le fichier par défaut /oracle/oracle/product/10.2.0/network/admin/tnsnames.ora.
Les valeurs que vous définissez dans les fichiers listener.ora et tnsnames.ora doivent être identiques.
Effectuez les procédures suivantes d'utilisation de Sun Cluster Manager pour configurer les services de données.
Configuration du service de données évolutif Sun Cluster HA pour Apache
Configuration du service de données Sun Cluster HA pour Oracle
Vous pouvez également exécuter l'utilitaire clsetup pour utiliser l'interface basée texte équivalente.
Lancez un navigateur à partir de la console d'administration.
Connectez-vous au port Sun Java Web Console sur phys-sun.
https://phys-sun:6789 |
Dans l'écran Sun Java Web Console, sélectionnez le lien Sun Cluster Manager.
À partir de l'écran Sun Cluster Manager, sélectionnez Tâches dans la barre latérale.
À partir de l'écran Tâches de Sun Cluster Manager, dans Configurer les services de données pour les applications, selectionnez Apache Web Server.
L'assistant de configuration s'affiche.
Suivez les invites pour configurer un service de données évolutif Sun Cluster HA pour Apache.
Fournissez les informations suivantes. Sinon, acceptez les valeurs par défaut.
Composant |
Valeur |
|
---|---|---|
Mode de configuration d'Apache |
Mode évolutif |
|
Noeuds ou zones |
phys-sun, phys-moon |
|
Fichier de configuration Apache |
/etc/apache/httpd.conf |
|
Répertoire racine du document Apache |
Cliquez sur Suivant pour copier /var/apache/htdocs sur un système de fichiers hautement disponible |
|
Point de montage du système de fichiers de cluster |
/global/apache |
|
Ressource réseau |
apache-lh |
Lorsque toutes les informations sont fournies, l'assistant crée le service de données et affiche les commandes qui ont été utilisées. L'assistant réalise des vérifications de validation sur toutes les propriétés Apache.
À partir de l'écran Tâches de Sun Cluster Manager, dans Configurer les services de données pour les applications, sélectionnez NFS.
L'assistant de configuration s'affiche.
Suivez les invites pour configurer un service de données Sun Cluster HA pour NFS.
Fournissez les informations suivantes. Sinon, acceptez les valeurs par défaut.
Composant |
Valeur |
|
---|---|---|
Liste des nœuds |
phys-sun, phys-moon |
|
Nom d'hôte logique |
nfs-lh |
|
Point de montage du système de fichiers |
/local/nfsset |
|
Préfixe de chemin d'accès |
/local/nfsset |
|
Options de partage | ||
Permissions d'accès |
rw |
|
nosuid |
Désactivé |
|
Sécurité |
Par défaut |
|
Chemin |
/local/nfsset |
Lorsque toutes les informations sont fournies, l'assistant crée le service de données et affiche les commandes qui ont été utilisées.
À partir de l'écran Tâches de Sun Cluster Manager, dans Configurer les services de données pour les applications, sélectionnez Oracle.
L'assistant de configuration s'affiche.
Suivez les invites pour configurer le service de données Sun Cluster HA pour Oracle.
Fournissez les informations suivantes. Sinon, acceptez les valeurs par défaut.
Composant |
Valeur |
|
---|---|---|
Liste des nœuds |
phys-moon, phys-sun |
|
Composants Oracle à configurer |
Serveur et listener |
|
Répertoire de base Oracle |
/oracle/oracle/product/10.2.0 |
|
SID (identificateur système Oracle) |
orasrvr |
|
Propriétés des ressources Sun Cluster | ||
Alert_log_file |
/oracle/oracle/product/10.2.0/alert_log |
|
Connect_string |
oracle/oracle-password |
|
Server:Debug_level |
1 |
|
Listener_name |
LISTENER |
|
Listener:Debug_level |
1 |
|
Nom d'hôte logique |
oracle-lh |
Lorsque toutes les informations sont fournies, l'assistant crée le service de données et affiche les commandes qui ont été utilisées. L'assistant réalise des vérifications de validation pour toutes les propriétés Oracle.
Déconnexion de Sun Cluster Manager.
L'installation et la configuration du démarrage rapide de Sun Cluster sont terminées. Des informations sur l'administration de votre cluster sont disponibles dans la documentation suivante :
Rubrique |
Documentation |
---|---|
Matériel |
Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS Sun Cluster 3.1 - 3.2 With Sun StorEdge 3510 or 3511 FC RAID Array Manual for Solaris OS |
Logiciel de cluster | |
Plate-forme de services |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS Sun Cluster Data Service for Apache Guide for Solaris OS |