Sun Cluster 3.0 5/02 补编

维护 StorEdge/Netra st A1000 阵列

本节介绍了在 Sun Cluster 环境中维护 StorEdge/Netra st A1000 阵列的过程。表 D-2 中所列的某些维护任务的执行过程与在非群集环境中的执行过程相同,因此,本节只引用任务的这些过程,而不是详细地进行介绍。表 D-2 列出了维护 StorEdge/Netra st A1000 阵列的相关过程。

表 D-2 任务:维护 StorEdge/Netra st A1000 阵列

任务 

有关说明,请转到 

与 A1000 阵列相关的过程: 

向正在运行的群集中添加阵列。 

"如何向正在运行的群集中添加 StorEdge/Netra st A1000 阵列对"

从正在运行的群集中删除阵列。 

"如何从正在运行的群集中删除 StorEdge/Netra st A1000 阵列"

更换出现故障的阵列。 

 

要更换出现故障的阵列,请删除出现故障的阵列并向配置中添加一个新阵列。 

"如何从正在运行的群集中删除 StorEdge/Netra st A1000 阵列"

 

"如何向正在运行的群集中添加 StorEdge/Netra st A1000 阵列对"

向正在运行的群集中添加磁盘驱动器。 

"如何向正在运行的群集中添加磁盘驱动器"

在运行的群集中更换磁盘驱动器。 

"如何在运行的群集中更换出现故障的磁盘驱动器"

从正在运行的群集中删除磁盘驱动器。 

"如何从正在运行的群集中删除磁盘驱动器"

升级阵列固件和 NVSRAM 文件。 

"如何在运行的群集中升级磁盘驱动器固件"

更换出现故障的控制器或恢复脱机的控制器。 

"如何更换出现故障的控制器或恢复脱机的控制器"

更换阵列的电源线。 

Sun StorEdge A1000 and D1000 Installation, Operations, and Service Manual

 

Netra st A1000 and Netra st D1000 Installation and Maintenance Manual 

更换阵列冷却罐。 

按照非群集环境中的相同过程进行操作。 

Sun StorEdge A1000 and D1000 Installation, Operations, and Service Manual

 

Netra st A1000 and Netra st D1000 Installation and Maintenance Manual 

与电缆相关的过程: 

更换连接 StorEdge A1000 与主机的 SCSI 电缆。 

按照非群集环境中的相同过程进行操作。 

Sun StorEdge RAID Manager User's Guide

 

Sun StorEdge RAID Manager 6.22.1 Release Notes

与机柜/电源相关的过程: 

更换电池装置。 

Sun StorEdge RAID Manager 6.22.1 Release Notes

 

Sun StorEdge A1000 and D1000 Installation, Operations, and Service Manual

 

Netra st A1000 and Netra st D1000 Installation and Maintenance Manual 

更换电源。 

Sun StorEdge A1000 and D1000 Installation, Operations, and Service Manual

 

Netra st A1000 and Netra st D1000 Installation and Maintenance Manual 

与节点/主机适配器相关的过程: 

更换节点中的主机适配器。 

"如何在连接到 StorEdge/Netra st A1000 阵列的节点中更换主机适配器"

如何向正在运行的群集中添加 StorEdge/Netra st A1000 阵列对

使用以下过程可以向正在运行的群集中添加 StorEdge/Netra st A1000 阵列对。

  1. 在各个群集节点上安装 RAID Manager 软件。

    有关安装 RAID Manager 软件的过程,请参阅《Sun StorEdge RAID Manager Installation and Support Guide》。


    注意:

    在 Sun Cluster 3.0 中配置群集时,需要使用 RAID Manager 6.22 或兼容的版本。


  2. 在各个群集节点上安装任何 StorEdge/Netra st A1000 阵列修补程序。


    注意:

    有关 StorEdge/Netra st A1000 阵列所需的软件、固件和修补程序的最新列表,请参阅 EarlyNotifier 20029,"A1000/A3x00/A1000FC Software/Firmware Configuration Matrix"。对于 Sun 服务提供商和具有 SunSolve 服务合同的客户,可通过以下 SunSolve 站点联机访问此文档: http://sunsolve.sun.com


  3. 设置这两个节点上的 /etc/osa/rmparams 文件中的 Rdac 参数。


    Rdac_RetryCount=1
    Rdac_NoAltOffline=TRUE
    

  4. 打开 StorEdge/Netra st A1000 阵列的电源。

    要打开 StorEdge/Netra st A1000 阵列的电源,请将电源开关推到瞬间开位置(右侧),然后松开。

  5. 关闭第一个节点。


    # scswitch -S -h nodename
    # shutdown -y -g0 -i0
    

  6. 如果要安装新的主机适配器,请关闭第一个节点的电源。

    有关关闭节点及其电源的完整过程,请参阅《Sun Cluster 3.0 12/01 系统管理指南》。

  7. 在第一个节点中安装主机适配器。

    有关安装主机适配器的过程,请参阅随主机适配器和节点提供的文档。

  8. 将 StorEdge/Netra st A1000 阵列的电缆连接到第一个节点上。

    如果您要添加 StorEdge/Netra st A1000 阵列,请使用微分 SCSI 电缆连接节点和阵列。检验与每个群组连接的整个 SCSI 总线的长度是否小于 25 米。测量时包括这两个节点之间的电缆,以及每个群组、节点和主机适配器内部的总线长度。

    图形 D-2 StorEdge/Netra st A1000 阵列布线

    Graphic

  9. 是否为安装主机适配器而关闭了第一个节点的电源?

    • 如果否,则转到步骤 10

    • 如果确实关闭了第一个节点的电源,请打开该节点以及 StorEdge/Netra st A1000 阵列的电源,但不要引导该节点。如果需要,可停止此阵列以继续执行 OpenBoot PROM (OBP) Monitor 任务。

  10. 查找 SCSI 主机适配器的路径。


    {0} ok show-disks
    ...b) /sbus@6,0/QLGC,isp@2,10000/sd...d) /sbus@2,0/QLGC,isp@2,10000/sd...

    标识并记录要连接到磁盘阵列上的两个控制器,并记录这些路径。使用此信息,可以按步骤 11中所述更改 nvramrc 脚本中的这些控制器的 SCSI 地址。请不要将 sd 目录包含在设备路径中。

  11. 编辑 nvramrc 脚本,更改第一个节点上的主机适配器的 scsi-initiator-id

    主机适配器的缺省 SCSI 地址为 7。SCSI 地址 7 是为 SCSI 链中的主机适配器保留的。该过程将 SCSI 地址为 7 的主机适配器称为"第二个节点"上的主机适配器。

    为避免冲突,请将 SCSI 链中的另一个主机适配器的 scsi-initiator-id 更改为可用的 SCSI 地址。此过程将具有可用 SCSI 地址的主机适配器称为"第一个节点"上的主机适配器。

    有关 nvramrc 编辑器和 nvedit 按键命令的部分列表,请参阅《Sun Cluster 3.0 12/01 Hardware Guide》中的"Appendix B"。有关这些命令的完整列表,请参阅《OpenBoot 3.x Command Reference Manual》。

    以下示例将 scsi-initiator-id 设置为 6。 OpenBoot PROM Monitor 会打印行号(0:, 1:,等等)。


    注意:

    确保在引号之后与 scsi-initiator-id 之前插入一个空格。


    {0} ok nvedit 
    0: probe-all
    1: cd /sbus@6,0/QLGC,isp@2,10000 
    2: 6 " scsi-initiator-id" integer-property 
    3: device-end 
    4: cd /sbus@2,0/QLGC,isp@2,10000
    5: 6 " scsi-initiator-id" integer-property 
    6: device-end 
    7: install-console 
    8: banner <Control C>
    {0} ok


  12. 保存更改。

    通过 nvedit 命令所作的更改将记录在 nvramrc 脚本的临时副本中。您可以继续编辑此副本,而不会造成任何危害。在完成编辑后,保存所作的更改。如果您不能确定更改的内容是否正确,可放弃您所作的更改。

    • 要保存更改,请键入:


      {0} ok nvstore
      {0} ok 

    • 要放弃更改,请键入:


      {0} ok nvquit
      {0} ok 

  13. 验证您步骤 11 中创建的 nvramrc 脚本的内容,如下例所示。

    如果 nvramrc 脚本的内容不正确,请使用 nvedit 命令进行更正。


    {0} ok printenv nvramrc
    nvramrc =             probe-all
                          cd /sbus@6,0/QLGC,isp@2,10000
                          6 " scsi-initiator-id" integer-property
                          device-end 
                          cd /sbus@2,0/QLGC,isp@2,10000
                          6 " scsi-initiator-id" integer-property
                          device-end 
                          install-console
                          banner
    {0} ok

  14. 指示 OpenBoot PROM Monitor 使用 nvramrc 脚本:


    {0} ok setenv use-nvramrc? true
    use-nvramrc? = true
    {0} ok 

  15. 引导第一个节点。


    {0} ok boot -r
    

    有关引导节点的详细信息,请参阅《Sun Cluster 3.0 12/01 系统管理指南》。

  16. 检查 StorEdge/Netra st A1000 阵列 NVSRAM 文件以及固件的修订版。如有必要,请安装最新的修订版。

    要检验您是否具有当前版本,请参阅《Sun StorEdge RAID Manager Release Notes》。有关升级 NVSRAM 文件和固件的过程,请参阅《Sun StorEdge RAID Manager User's Guide》。

  17. 关闭第二个节点。


    # scswitch -S -h nodename
    # shutdown -y -g0 -i0
    

  18. 如果要安装新的主机适配器,请关闭第二个节点的电源。

    有关关闭节点及其电源的完整过程,请参阅《Sun Cluster 3.0 12/01 系统管理指南》。

  19. 在第二个节点中安装主机适配器。

    有关安装主机适配器的过程,请参阅随节点提供的文档。

  20. 将 StorEdge/Netra st A1000 阵列的电缆连接到该节点上。

    使用微分 SCSI 电缆连接节点和阵列。确保与每个群组连接的整个 SCSI 总线的长度小于 25 米。测量时包括这两个节点之间的电缆,以及每个群组、节点和主机适配器内部的总线长度。

    图形 D-3 StorEdge/Netra st A1000 阵列布线

    Graphic

  21. 是否为安装主机适配器而关闭了第二个节点的电源?

    • 如果否,则转到步骤 23

    • 如果确实关闭了第二个节点的电源,请打开该节点以及 StorEdge/Netra st A1000 阵列的电源,但不要引导该节点。如果需要,可停止此阵列以继续执行 OpenBoot PROM (OBP) Monitor 任务。

  22. 检验第二个节点是否可以识别新的主机适配器和磁盘驱动器。

    如果该节点无法识别新硬件,请检查所有的硬件连接并重复您步骤 19 中执行的安装步骤。


    {0} ok show-disks
    ...b) /sbus@6,0/QLGC,isp@2,10000/sd...d) /sbus@2,0/QLGC,isp@2,10000/sd...{0} ok

  23. 验证第二个节点上的各个主机适配器的 scsi-initiator-id 是否设置为 7

    使用 show-disks 命令来查找连接到这些机箱的主机适配器的路径。选择每个主机适配器的设备树节点,并显示该节点的属性,以确认每个主机适配器的 scsi-initiator-id 是否设置为 7


    {0} ok cd /sbus@6,0/QLGC,isp@2,10000
    {0} ok .properties
    scsi-initiator-id        00000007 
    ...

  24. 引导第二个节点。


    {0} ok boot -r
    

    有关详细信息,请参阅《Sun Cluster 3.0 12/01 系统管理指南》。

  25. 在一个节点上,检验是否已为所有节点(这些节点已连接到 StorEdge/Netra st A1000 阵列)的各 StorEdge/Netra st A1000 LUN 分配了 DID:


    # scdidadm -L
    

从此处可转到何处

要从未分配的磁盘驱动器上创建 LUN,请参阅"如何创建 LUN"

要升级 StorEdge/Netra st A1000 阵列的固件,请参阅"如何在运行的群集中升级磁盘驱动器固件"

如何从正在运行的群集中删除 StorEdge/Netra st A1000 阵列

使用以下过程可以从正在运行的群集中删除 StorEdge/Netra st A1000 阵列。


Caution - Caution -

此过程会删除您要删除的 StorEdge/Netra st A1000 阵列上的所有数据。


  1. 将该阵列中的所有 Oracle Parallel Server/Real Application Clusters (OPS) 表、数据服务或卷迁移到其他位置。

  2. 确定此阵列是否包含已配置为定额设备的 LUN。


    # scstat -q
    
    • 如果该阵列中不包含定额设备,请转到步骤 3

    • 如果该阵列中包含已配置为定额设备的 LUN,请选择其他阵列中的另一个设备并将其配置为新的定额设备。然后,删除旧的定额设备。

  3. 停止该阵列的所有活动。

    有关说明,请参阅《RAID Manager User's Guide》和有关正在运行的阵列的文档。

  4. 从磁盘集或磁盘组中删除 LUN。

    如果卷管理器确实管理此 LUN,请运行相应的 Solstice DiskSuite/Solaris Volume Manager 或 VERITAS Volume Manager 命令,从任何磁盘集或磁盘组中删除该 LUN。有关详细信息,请参阅 Solstice DiskSuite/Solaris Volume Manager 或 VERITAS Volume Manager 文档。有关所需的其他 VERITAS Volume Manager 命令,请参阅以下段落。

    对于由 VERITAS Volume Manager 管理的那些 LUN,在删除它们之前,首先必须使它们完全脱离 VERITAS Volume Manager 的控制。要删除这些 LUN,请在删除任何磁盘组中的 LUN 之后使用以下命令:


    # vxdisk offline cNtXdY
    # vxdisk rm cNtXdY
    

  5. 从一个节点上删除 LUN。

    有关删除 LUN 的过程,请参阅《Sun StorEdge RAID Manager User's Guide》。

  6. 断开阵列和所有电缆之间的连接并从群集中拆下硬件。

  7. 删除指向您要删除的一个或多个 LUN 的路径:


    # rm /dev/rdsk/cNtXdY*
    # rm /dev/dsk/cNtXdY*
    
    # rm /dev/osa/dev/dsk/cNtXdY*
    # rm /dev/osa/dev/rdsk/cNtXdY*
    

  8. 在所有群集节点上,删除对 StorEdge/Netra st A1000 阵列的引用。


    # scdidadm -C
    

  9. 从连接到 StorEdge/Netra st A1000 阵列的各节点上拆下所有不用的主机适配器。

    1. 关闭要拆卸主机适配器的第一个节点并关闭其电源:


      # scswitch -S -h nodename
      # shutdown -y -g0 -i0
      

      有关关闭节点及其电源的过程,请参阅《Sun Cluster 3.0 12/01 系统管理指南》。

    2. 从第一个节点上拆下主机适配器。

      有关拆卸硬件的说明,请参阅随节点硬件附带的文档。

    3. 引导该节点并等待它重新加入群集。


      ok boot -r
      

    4. 对连接到 StorEdge/Netra st A1000 阵列的第二个节点重复步骤 a步骤 c

  10. 在主节点上还原资源组。


    # scswitch -Z
    

  11. 是否要从群集中删除最后一个 StorEdge/Netra st A1000 阵列?

    • 如果否,则此过程结束。

    • 如果要从群集中删除最后一个 StorEdge/Netra st A1000 阵列,请转到步骤 12

  12. 删除 RAID Manager 修补程序,然后删除 RAID Manager 软件包。


    Caution - Caution -

    如果您误删了 RAID Manager 软件包,则下一次重新引导该节点时将会失败。在删除 RAID Manager 软件包之前,请参阅《Sun StorEdge RAID Manager 6.22.1 Release Notes》中与卸载相关的问题。


    有关删除软件包的过程,请参阅随 StorEdge/Netra st A1000 阵列附带的文档。

如何更换出现故障的控制器或恢复脱机的控制器

使用以下过程可以更换 StorEdge/Netra st A1000 控制器或恢复脱机的控制器。

有关 SCSI 保留和故障隔离的概念性信息,请参阅《Sun Cluster 3.0 12/01 概念》。

  1. 确定此阵列是否包含已配置为定额设备的 LUN。


    # scstat -q
    
    • 如果该阵列中不包含定额设备,请转到步骤 2

    • 如果该阵列中包含已配置为定额设备的 LUN,请选择其他阵列中的另一个 LUN 并将其配置为新的定额设备。然后,删除旧的定额设备。

  2. 重新启动 RAID Manager 守护程序:


    # /etc/init.d/amdemon stop
    # /etc/init.d/amdemon start
    

  3. 是否存在出现故障的控制器?

    • 如果阵列处于脱机状态,但其中不存在出现故障的控制器,请转到步骤 4

    • 如果存在出现故障的控制器,请用新的控制器更换出现故障的控制器,但不要使该控制器联机

      有关更换 StorEdge/Netra st A1000 控制器的过程,请参阅《Sun StorEdge A3500/A3500FC Controller Module Guide》和《Sun StorEdge RAID Manager Installation and Support Guide》中的其他注意事项。

  4. 在一个节点上,使用 RAID Manager GUI 的 Recovery 应用程序将该控制器恢复为联机状态。


    注意:

    必须使用 RAID Manager GUI 的 Recovery 应用程序将控制器置于联机状态。


    有关 Recovery 应用程序的信息,请参阅《Sun StorEdge RAID Manager User's Guide》。如果在使控制器联机时遇到问题,请参阅《Sun StorEdge RAID Manager Installation and Support Guide》。

  5. 在连接到 StorEdge/Netra st A1000 阵列的某个节点上,检验该控制器是否具有正确的 SCSI 保留状态。

    在要置于联机状态的控制器的 LUN 0 上运行 scdidadm(1M) 修复选项 (-R):


    # scdidadm -R /dev/dsk/cNtXdY
    

如何向正在运行的群集中添加磁盘驱动器

使用以下过程可以向正在运行的群集中的 StorEdge/Netra st A1000 阵列中添加磁盘驱动器。

  1. 检验新的磁盘驱动器是否已格式化,并确认并非来自另一阵列。

    有关在 StorEdge/Netra st A1000 阵列子系统之间移动驱动器的信息,请参阅《Sun StorEdge RAID Manager 6.22.1 Release Notes》。

  2. 将新的磁盘驱动器安装到磁盘阵列中。

    有关安装磁盘驱动器的过程,请参阅《Sun StorEdge A1000 and D1000 Installation, Operations, and Service Manual》或《Netra st A1000 and Netra st D1000 Installation and Maintenance Manual》。

  3. 使磁盘驱动器旋转约 30 秒。

  4. 运行 Health Check 以确保新的磁盘驱动器没有缺陷。

    有关运行 Recovery Guru 和 Health Check 的说明,请参阅《Sun StorEdge RAID Manager User's Guide》。

  5. 使新驱动器失效,然后恢复此驱动器以更新该驱动器上的 DacStore。

    有关使驱动器失效和手动恢复驱动器的过程,请参阅《Sun StorEdge RAID Manager User's Guide》。

  6. 对要添加的每个磁盘驱动器重复步骤 2步骤 5

从此处可转到何处

要为新的驱动器创建 LUN,请参阅"如何创建 LUN"以获取详细信息。

如何在运行的群集中更换出现故障的磁盘驱动器

使用以下过程可以在运行的群集中更换出现故障的磁盘驱动器。

  1. 更换磁盘驱动器是否会影响任何 LUN 的可用性?

    • 如果否,则转到步骤 2

    • 如果更换操作确实会影响 LUN 的可用性,请从卷管理控制中删除一个或多个 LUN。有关详细信息,请参阅 Solstice DiskSuite/Solaris Volume Manager 或 VERITAS Volume Manager 文档。

  2. 在磁盘阵列中更换磁盘驱动器。

    有关更换磁盘驱动器的过程,请参阅《Sun StorEdge D1000 Storage Guide》。

  3. 运行 Health Check 以确保新的磁盘驱动器没有缺陷。

    有关运行 Recovery Guru 和 Health Check 的说明,请参阅《Sun StorEdge RAID Manager User's Guide》。

  4. 出现故障的驱动器是否属于某个设备组?

    • 如果该驱动器属于某个设备组,请转到步骤 5

    • 如果该驱动器是某个设备组的一部分,则会自动启动重建过程。如果由于任何原因而导致不能自动启动重建过程,请从 Manual Recovery 应用程序中选择"Reconstruct"。请不要选择"Revive"。完成重建过程后,请转到步骤 6

  5. 使新驱动器失效,然后恢复此驱动器以更新该驱动器上的 DacStore。

    有关使驱动器失效和手动恢复驱动器的过程,请参阅《Sun StorEdge RAID Manager User's Guide》。

  6. 如果已按步骤 1 所述从卷管理控制中删除了 LUN,请将这些 LUN 还原到卷管理控制中。

    有关详细信息,请参阅 Solstice DiskSuite/Solaris Volume Manager 或 VERITAS Volume Manager 文档。

如何从正在运行的群集中删除磁盘驱动器

使用以下过程可以从正在运行的群集中删除磁盘驱动器。

  1. 确定与要删除的磁盘驱动器相关的 LUN 是否已配置为定额设备。


    # scstat -q
    
    • 如果该 LUN 不是定额设备,请转到步骤 2

    • 如果此 LUN 已配置为定额设备,请选择另一个设备并将其配置为新的定额设备。然后,删除旧的定额设备。

  2. 删除与您要删除的磁盘驱动器相关的 LUN。

    有关删除 LUN 的过程,请参阅"如何删除 LUN"

  3. 从磁盘阵列中拆下磁盘驱动器。

    有关拆卸磁盘驱动器的过程,请参阅《Sun StorEdge D1000 Storage Guide》。


    Caution - Caution -

    在拆下磁盘驱动器后,安装一个虚拟驱动器以保持适当的冷却效果。


如何在运行的群集中升级磁盘驱动器固件


注意:

只有具备资格的服务人员才能进行磁盘驱动器固件升级。如果您需要升级驱动器固件,请与本地的 Sun Solution Center 或 Sun 服务提供商联系。


如何在连接到 StorEdge/Netra st A1000 阵列的节点中更换主机适配器

本节介绍在运行的节点(该节点已连接到 StorEdge/Netra st A1000 阵列)中更换出现故障的主机适配器的过程。

在以下的过程中,SCSI 总线 A 上的节点 1 的主机适配器需要更换,但节点 2 仍保持正常工作。


注意:

本过程中的若干步骤要求您中止 I/O 活动。要中止 I/O 活动,请使用《Sun StorEdge RAID Manager User's Guide》中所述的 RAID Manager GUI 的手动恢复过程来使阵列脱机。


  1. 关闭节点 1,但不关闭节点的电源。


    # scswitch -S -h nodename
    # shutdown -y -g0 -i0
    

    有关关闭节点的过程,请参阅《Sun Cluster 3.0 12/01 系统管理指南》。

  2. 在节点 2 上,中止 SCSI 总线 A 的 I/O 活动。

    有关说明,请参阅《RAID Manager User's Guide》。

  3. 从 SCSI 电缆的阵列一端,断开用来连接阵列与节点 1 的 SCSI 总线 A 电缆,然后用微分 SCSI 端接器来替代此电缆。

  4. 重新启动 SCSI 总线 B 上的 I/O 活动。

    有关说明,请参阅《RAID Manager User's Guide》。

  5. 维修出现故障的主机适配器是否会影响 SCSI 总线 B?

    • 如果不影响 SCSI 总线 B,则转到步骤 9

    • 如果会影响 SCSI 总线 B,请继续步骤 6

  6. 在节点 2 上,中止 SCSI 总线 B 上阵列的 I/O 活动。

    有关说明,请参阅《RAID Manager User's Guide》。

  7. 从 SCSI 电缆的阵列一端,断开用来连接阵列与节点 1 的 SCSI 总线 B 电缆,然后用微分 SCSI 端接器来替代此电缆。

  8. 重新启动 SCSI 总线 B 上的 I/O 活动。

    有关说明,请参阅《RAID Manager User's Guide》。

  9. 关闭节点 1 的电源。

  10. 更换节点 1 的主机适配器。

    有关说明,请参阅随节点硬件附带的文档。

  11. 打开节点 1 的电源,但不要引导该节点。如果需要,请中止该阵列。

  12. 在节点 2 上,中止 SCSI 总线 A 上阵列的 I/O 活动。

    有关说明,请参阅《RAID Manager User's Guide》。

  13. 从 SCSI 总线 B 上拆下微分 SCSI 端接器,然后重新安装 SCSI 电缆,以便连接阵列与节点 1。

  14. 重新启动 SCSI 总线 B 上的 I/O 活动。

    有关说明,请参阅《RAID Manager User's Guide》。

  15. 是否已按步骤 7 中所述将微分 SCSI 端接器安装到 SCSI 总线 B 上?

    • 如果否,则跳到步骤 18

    • 如果已将 SCSI 端接器安装到 SCSI 总线 B 上,则中止 SCSI 总线 B 上的 I/O 活动,然后继续步骤 16

  16. 从 SCSI 总线 B 上拆下微分 SCSI 端接器,然后重新安装 SCSI 电缆,以便连接阵列与节点 1。

  17. 重新启动 SCSI 总线 B 上的 I/O 活动。

    有关说明,请参阅《RAID Manager User's Guide》。

  18. 使阵列重新联机。

    有关说明,请参阅《RAID Manager User's Guide》。

  19. 重新平衡所有逻辑单元 (LUN)。

    有关说明,请参阅《RAID Manager User's Guide》。

  20. 将节点 1 引导为群集模式。


    {0} ok boot