技术开发 频道

在Tivoli集群域中实现DB2高可用性灾难恢复


附录
设置 2 节点 TSA 集群域所用的命令


    使用以下命令设置 2 节点 TSA 集群域:

 
preprpnode:这个命令为集群中包含的节点准备安全设置。当发出这个命令时,在节点之间交换公共密钥并修改 RMC 访问控制列表(ACL),让集群的所有节点都能够访问集群资源。

mkrpdomain:这个命令创建一个新的集群定义。它用来指定集群的名称以及要添加进集群的节点列表。

lsrpdomain:这个命令列出运行这个命令的节点所属集群的相关信息。

startrpdomain / stoprpdomain:这些命令分别使集群在线和离线。

addrpnode:在定义并运行集群之后,使用这个命令在集群中添加新节点。

startrpnode / stoprpnode:这些命令分别使集群中的单独节点在线和离线。在执行系统维护时常常使用这些命令。停止节点,执行修复或维护,然后重新启动节点,这时它会重新加入集群。

lsrpnode:这个命令用来查看为集群定义的节点列表,以及每个节点的操作状态(OpState)。注意,这个命令只在集群中的在线节点上有效;在离线节点上,它不显示节点列表。

rmrpdomain:这个命令删除一个定义的集群。

rmrpnode:这个命令从集群定义中删除一个或多个节点。


    对这些命令的详细描述,请参考以下手册,这些手册都可以在 IBM TSA CD 上找到:

IBM Reliable Scalable Cluster Technology for Linux, Administration Guide, SA22-7892
IBM Reliable Scalable Cluster Technology for Linux, Technical Reference, SA22-7893
IBM Reliable Scalable Cluster Technology for AIX 5L: Administration Guide, SA22-7889
IBM Reliable Scalable Cluster Technology for AIX 5L: Technical Reference, SA22-7890


定义和管理集群


    下面的场景展示如何创建集群、在集群中添加节点以及检查 IBM TSA 守护进程(IBM.RecoveryRM)的状态。

创建 2 节点的 TSA 集群域


    为了创建这个集群,需要执行以下步骤:

1. 作为 root 在集群中的每个节点上登录。

2. 在每个节点上设置环境变量 CT_MANAGEMENT_SCOPE=2

 
export CT_MANAGEMENT_SCOPE=2


3. 在所有节点上发出 preprpnode 命令,从而使集群节点能够相互通信。

 
preprpnode node01 node02


4. 现在,可以创建名为 “SA_Domain” 的集群,它在 Node1 和 Node2 上运行。可以从任何节点发出以下命令:

 
mkrpdomain SA_Domain node01 node02


注意: 在使用 mkrpdomain 命令创建 RSCT 对等域(集群)时,对等域名使用的字符只限于以下的 ASCII 字符:A-Z、a-z、0-9、.(点号)和 _(下划线)。

5. 要查看 SA_Domain 的状态,发出 lsrpdomain 命令:

 
Output:
Name-------OpState-------RSCTActiveVersion-------MixedVersions-------TSPort-------GSPort
SA_Domain--Offline-------2.3.3.0---------------------No--------------------12347--------12348

    集群已经定义了,但是处于离线状态。

6.发出 startrpdomain 命令,让集群在线:

 
startrpdomain SA_Domain


    当再次运行 lsrpdomain 命令时,会看到集群仍然处于启动过程中,OpState 是 Pending Online

 
Output:
Name-------OpState-----------------RSCTActiveVersion-------MixedVersions-------TSPort-------GSPort
SA_Domain--Pending Online-------2.3.3.0---------------------No--------------------12347--------12348

注意:
1. 可能会收到下面这样的错误消息:

“2632-044 the domain cannot be created due to the following errors that were detected while harvesting information from the target nodes:
node1: 2632-068 this node has the same internal identifier as node2 and cannot be included in the domain definition.”

    如果克隆了 Linux 映像,常常会发生这个错误。集群的配置出现了错误,应该重新设置整个配置。为了解决这样的问题,可以在错误消息中指出的节点上,运行 /usr/sbin/rsct/install/bin/recfgct 命令来重新设置节点 ID。 

    然后从 preprpnode 命令开始继续设置。

2. 还可能会收到下面这样的错误消息:

“2632-044 The domain cannot be created due to the following errors that were detected while harvesting information from the target nodes:
node1: 2610-418 Permission is denied to access the resources or resource class specified in this command.”

    为了解决这个问题,应该检查主机名解析。在所有节点上的本地 /etc/hosts 文件中,确保每个集群节点的所有条目和名称服务器条目是相同的。

在现有的集群中添加节点

    在创建 2 节点集群之后,可以按照以下方法在 SA_Domain 中添加第三个节点:

1. 作为根用户发出 lsrpdomain 命令,查看集群是否在线:

 
Output:
Name-------OpState-------RSCTActiveVersion-------MixedVersions-------TSPort-------GSPort
SA_Domain--Online-------2.3.3.0---------------------No--------------------12347--------12348

2. 发出 lsrpnode 命令,查看哪些节点在线:
 
Name OpState RSCT Version
node02 Online 2.3.3.0
node03 Offline 2.3.3.0
node01 Online 2.3.3.0

3. 作为根用户发出以下的 preprpnode 命令,让现有节点和新节点能够相互通信。

    作为根用户登录 Node3 并输入:

 
preprpnode node01 node02


    作为根用户登录 Node2 并输入:

 
preprpnode node03


    作为根用户登录 Node1 并输入:

 
preprpnode node03


    确保在所有节点上执行 preprpnode 命令。强烈建议这样做。

4. 为了将 Node3 添加到集群定义中,作为根用户在 Node1 或 Node2(这两个节点应该已经在集群中在线)上发出 addrpnode 命令:

 
addrpnode node03

作为根用户发出 lsrpnode 命令,查看所有节点的状态:

Name OpState RSCT Version
node02 Online 2.3.3.0
node03 Offline 2.3.3.0
node01 Online 2.3.3.0

5. 作为根用户,从一个在线节点启动 Node3:

 
startrpnode node03


    经过短暂的延迟之后,Node3 应该也在线了。
0
相关文章