Skip Headers
StorageTek Automated Cartridge System Library Software High Availability 8.3 Cluster 安装、配置和运行
发行版 8.3
E54100-01
  转到目录
目录
转到索引
索引

上一页
上一页
 
下一页
下一页
 

6 安装 Solaris Cluster 4.1

Oracle 技术网上提供的《Oracle Solaris Cluster 软件安装指南》详细介绍了 Solaris Cluster 安装(请参见本文档中的"下载软件包")。

ACSLSHA 8.3 在安装有 Oracle Solaris Cluster 4.1 和适用于 OSC-4.1 的支持系统信息库更新 (Support Repository Update, SRU-4) 的 Solaris 11 上受支持。

Cluster 软件包安装

在此过程中,您将安装 Cluster 软件。

  1. 创建目录 /opt/OSC

    # mkdir /opt/OSC
    
  2. 将下载的 Cluster 4.1 iso 映像 (osc-4_1-ga-repo-full.iso) 移动到 /opt/OSC 目录。

  3. 将下载的 SRU-4 OSC 4.1 修补程序映像移动到 /opt/OSC 目录并解压缩该文件。

  4. 将只读 Cluster iso 映像复制到一个读/写文件系统。

    1. 通过 iso 映像创建一个伪设备:

      # /usr/sbin/lofiadm -a /opt/OSC/osc-4_1-ga-repo-full.iso
      

      观察返回的设备路径并在步骤 c 中使用该路径。

    2. 创建一个挂载点:

      # mkdir /opt/OSC/mnt
      
    3. 将伪设备挂载到该挂载点:

      # mount -F hsfs -o ro /dev/lofi/1 /opt/OSC/mnt
      
    4. 将 iso 映像复制到一个临时的读/写文件系统。

      # mkdir /opt/OSC/merged_iso
      # cp -r /opt/OSC/mnt/repo /opt/OSC/merged_iso
      
  5. 将 SRU-4 ISO 映像挂载到一个文件系统。

    # mount -F hsfs /opt/OSC/osc-4_1_4-1-repo-incr.iso /mnt
    
  6. 将 SRU-4 中的更改合并到基 Cluster 4.1 发行版中。

    1. 将两个 iso 映像同步到临时文件系统中。

      # rsync -aP /mnt/repo /opt/OSC/merged_iso
      
    2. 重新生成系统信息库的搜索索引。

      # pkgrepo rebuild -s /opt/OSC/merged_iso/repo
      
  7. 通过修补后的 iso 映像安装 Solaris Cluster

    # pkg set-publisher -g file:///opt/OSC/merged_iso/repo ha-cluster
    # pkg install ha-cluster-full
    
  8. 在相邻节点上重复步骤 1-7。

scinstall 例程

Solaris Cluster 安装例程在两个节点之间执行一系列检查,以确保它可以从两台服务器上监视系统运行并可以控制启动和故障转移操作。

准备步骤:

  1. 在运行 scinstall 之前,为 root 建立一个环境,使其包括刚刚安装的群集实用程序的路径将比较有帮助。编辑 /root/.profile 文件。更改路径语句以包括 /usr/cluster/bin

    export PATH=/usr/cluster/bin:/usr/bin:/usr/sbin
    

    确保在每个节点上执行此更改。要继承新路径,您可以注销并重新登录,或者只是使用 su -

  2. 确认 rpc/bindconfig/local_only 属性为 false

    # svccfg -s network/rpc/bind listprop config/local_only
    

    如果此属性返回 true,则必须将其设置为 false

    # svccfg -s network/rpc/bind setprop config/local_only=false
    

    立即进行确认:

    # svccfg -s network/rpc/bind listprop config/local_only
    
  3. Cluster 软件的基本硬件设置要求是存在两个预留的专用网络连接,用以确保在两个节点间无中断地进行关于群集运行的通信。图 2-1, "连接到每个服务器节点上的两个以太网端口的单个 HBCr 磁带库接口卡" 显示了这些物理连接,标签为 (2)。每个连接都始自一个单独的网络适配器 (NIC) 以确保没有单点故障会中断 Cluster 的内部通信。scinstall 例程会对其中每个连接进行检查,以检验线路上是否没有其他网络通信。最后,scinstall 将检验两条线路之间的通信是否正常进行。在检验物理连接后,该例程将激活以 172.16 开头的专用内部地址的每个接口。

    在运行 scinstall 之前,您应当检验每台服务器上您为此专用连接设置的两个网络端口的已分配网络设备 ID。运行 dladm show-phys 以查看接口分配。

    # dladm show-phys
    
  4. 必须设定一个逻辑主机名和 IP 地址以从任一节点表示群集。此逻辑主机将可靠地对网络通信进行响应,无论活动主机是从节点 1 还是从节点 2 运行。

    更新两个节点上的 /etc/hosts 文件以包括该逻辑主机名和逻辑 IP 地址。启动 ACSLS-HA("启动 ACSLS HA")后,此主机将处于活动状态。

  5. 要成功安装群集,必须启用 Solaris Common Agent Container。检验是否已启用了此 Agent Container。

    # cacaoadm status
    

    如果状态响应表明 Agent Container 在系统启动时处于 "DISABLED" 状态,则按以下方法启用它:

    # cacaoadm enable
    

运行 scinstall

从两个节点之一运行 scinstall 命令,然后执行以下过程:

  1. 从主菜单中选择 Create a new cluster

  2. 从子菜单中选择 Create a new cluster

  3. 接受初始的默认值。

  4. 选择 Typical 安装。

  5. 为群集分配一个名称,例如 acsls_cluster

  6. 在 "Cluster Nodes" 提示下,输入相邻节点的主机名。如果节点列表正确,则接受它

  7. 定义您已确定的用于此目的的两个专用节点互连。允许安装例程激活物理连接的 tcp 链路。

  8. 根据提示创建群集。除非已确定一个特定设备来用作法定设备,否则,允许 scinstall 例程选择法定设备。

  9. 如果实用程序报告群集检查在两个节点上都失败,不用担心。即使是微小的警告,也会报告为故障。您应当检查每个节点的报告,并查找可能返回的任何严重错误或违规。该例程会显示日志文件的路径,该日志文件中报告了关于操作期间遇到的任何错误或警告的详细信息。检查日志文件并纠正查明的任何严重或中度严重问题。

检验群集配置

  1. 检验两个节点是否都包括在群集中。

    # clnode list -v
    Node                Type
    ----                ----
    node1               cluster
    node2               cluster
    
  2. 查看可供 Solaris Cluster 使用的设备的列表。

    # cldevice list -v
    DID Device   Full Device Path
    d1           node1:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0
    d1           node2:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0
    d2           node1:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0
    d2           node2:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0
    d3           node1:/dev/rdsk/c1t0d0
    d4           node1:/dev/rdsk/c1t1d0
    d5           node2:/dev/rdsk/c1t0d0
    d6           node2:/dev/rdsk/c1t1d0
    

    在此示例中,d1 和 d2 是共享磁盘设备,而 d3 和 d4 是节点 1 引导设备,d5 和 d6 是节点 2 引导设备。注意,可以从任一节点访问 d1 和 d2。

  3. 一个法定机制包含三个或更多设备。在启动期间将使用它来确定哪个节点将成为活动节点。

    确认已配置了完整的法定机制。

    # clquorum list -v
    Quorum              Type
    ------              ----
    d1                  shared_disk
    node1               node
    node2               node
    

    (可选)您还可以向法定设备列表添加第二个 shared_disk。

    # clquorum add d2
    # clquorum list -v
    Quorum              Type
    ------              ----
    d1                  shared_disk
    d2                  shared_disk
    node1               node
    node2               node
    

    如果没有列出共享磁盘设备,则必须确定其设备 id,然后将其添加到法定机制中。

    1. 识别每个共享磁盘的设备 id。

      # cldevice list -v
      
    2. 运行 clsetup 以添加法定设备。

      # clsetup
      
      Select '1' for quorum.
      Select '1' to dd a quorum device.
      Select 'yes' to continue.
      Select 'Directly attached shared disk'
      Select 'yes' to continue.
      Enter the device id (d<n>) for the first shared drive.
      Answer 'yes' to add another quorum device.
      Enter the device id for the second shared drive.
      
    3. 运行 clquorum show 以确认法定成员身份。

      # clquorum show
      
  4. 复查整个群集配置。

    # cluster check -v | egrep -v "not applicable|passed"
    

    查看列表中是否有任何违规的实例。

  5. 检验已注册资源类型的列表。

    # clrt list
    SUNW.LogicalHostname:4
    SUNW.SharedAddress:2
    SUNW.gds:6
    

    如果没有列出 SUNW.gds,则注册该列表。

    # clrt register SUNW.gds
    

    使用 clrt list 进行确认。