nemo****@zuku*****
nemo****@zuku*****
2012年 3月 23日 (金) 12:36:08 JST
根本と申します。 復旧したノードから、リソースグループをを元の状態に戻す方法に関して質問がありメール致します。 [環境] OS : CentOS release 6.2 ※ 正確には、Openvz Kernelです。 # uname -a Linux v00c.ss.jp 2.6.32-042stab049.6 #1 SMP Mon Feb 20 19:46:19 JST 2012 x86_64 x86_64 x86_64 GNU/Linux 構成:姉妹構成(2台構成) pacemaker-1.0.11-1.2.2.el6.x86_64(Linux-HA Japan提供) ----当初の各ノードの状態---- # crm_mon ============ Last updated: Thu Mar 22 22:37:01 2012 Stack: Heartbeat Current DC: v00c.ss.jp (5162e974-3a14-4e12-a66a-eb94e6b08736) - partition with quorum Version: 1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87 2 Nodes configured, unknown expected votes 4 Resources configured. ============ Online: [ v00c.ss.jp v00d.ss.jp ] Resource Group: group1 res_Filesystem1 (ocf::heartbeat:Filesystem): Started v00c.ss.jp res_ip1 (ocf::heartbeat:IPaddr2): Started v00c.ss.jp res_vps1 (ocf::heartbeat:vps): Started v00c.ss.jp res_MailTo1 (ocf::heartbeat:MailTo): Started v00c.ss.jp Resource Group: group2 res_Filesystem2 (ocf::heartbeat:Filesystem): Started v00d.ss.jp res_ip2 (ocf::heartbeat:IPaddr2): Started v00d.ss.jp res_vps2 (ocf::heartbeat:vps): Started v00d.ss.jp res_MailTo2 (ocf::heartbeat:MailTo): Started v00d.ss.jp Master/Slave Set: ms_drbd1 Masters: [ v00c.ss.jp ] Slaves: [ v00d.ss.jp ] Master/Slave Set: ms_drbd2 Masters: [ v00d.ss.jp ] Slaves: [ v00c.ss.jp ] 上記状態から、片側(v00d)のheartbeatを落とします。 # /etc/rc.d/init.d/heartbeat stop ----片方のノード(v00d)のheartbeatを落とした状態---- # crm_mon ============ Last updated: Thu Mar 22 22:40:11 2012 Stack: Heartbeat Current DC: v00c.ss.jp (5162e974-3a14-4e12-a66a-eb94e6b08736) - partition with quorum Version: 1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87 2 Nodes configured, unknown expected votes 4 Resources configured. ============ Online: [ v00c.ss.jp ] OFFLINE: [ v00d.ss.jp ] Resource Group: group1 res_Filesystem1 (ocf::heartbeat:Filesystem): Started v00c.ss.jp res_ip1 (ocf::heartbeat:IPaddr2): Started v00c.ss.jp res_vps1 (ocf::heartbeat:vps): Started v00c.ss.jp res_MailTo1 (ocf::heartbeat:MailTo): Started v00c.ss.jp Resource Group: group2 res_Filesystem2 (ocf::heartbeat:Filesystem): Started v00c.ss.jp res_ip2 (ocf::heartbeat:IPaddr2): Started v00c.ss.jp res_vps2 (ocf::heartbeat:vps): Started v00c.ss.jp res_MailTo2 (ocf::heartbeat:MailTo): Started v00c.ss.jp Master/Slave Set: ms_drbd1 Masters: [ v00c.ss.jp ] Stopped: [ res_drbd1:1 ] Master/Slave Set: ms_drbd2 Masters: [ v00c.ss.jp ] Stopped: [ res_drbd2:1 ] 片側(v00d)のheartbeatを起動します。 # /etc/rc.d/init.d/heartbeat start ----片方のノード(v00d)のheartbeatを立ち上げた状態---- # crm_mon ============ Last updated: Thu Mar 22 22:38:25 2012 Stack: Heartbeat Current DC: v00c.ss.jp (5162e974-3a14-4e12-a66a-eb94e6b08736) - partition with quorum Version: 1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87 2 Nodes configured, unknown expected votes 4 Resources configured. ============ Online: [ v00c.ss.jp v00d.ss.jp ] Resource Group: group1 res_Filesystem1 (ocf::heartbeat:Filesystem): Started v00c.ss.jp res_ip1 (ocf::heartbeat:IPaddr2): Started v00c.ss.jp res_vps1 (ocf::heartbeat:vps): Started v00c.ss.jp res_MailTo1 (ocf::heartbeat:MailTo): Started v00c.ss.jp Resource Group: group2 res_Filesystem2 (ocf::heartbeat:Filesystem): Started v00c.ss.jp res_ip2 (ocf::heartbeat:IPaddr2): Started v00c.ss.jp res_vps2 (ocf::heartbeat:vps): Started v00c.ss.jp res_MailTo2 (ocf::heartbeat:MailTo): Started v00c.ss.jp Master/Slave Set: ms_drbd1 Masters: [ v00c.ss.jp ] Slaves: [ v00d.ss.jp ] Master/Slave Set: ms_drbd2 Masters: [ v00c.ss.jp ] Slaves: [ v00d.ss.jp ] この状態から、「----当初の各ノードの状態----」へ戻したいのですがどうもうまくいかないようです。 私が行った事としては、下記コマンドでリソースを移動しました。 # crm crm(live)# resource crm(live)resource# move group2 v00d.ss.jp force ----以下出力されてメッセージ---- WARNING: Creating rsc_location constraint 'cli-standby-group2' with a score of -INFINITY for resource group2 on v00c.ss.jp. This will prevent group2 from running on v00c.ss.jp until the constraint is removed using the 'crm_resource -U' command or manually with cibadmin This will be the case even if v00c.ss.jp is the last node in the cluster This message can be disabled with -Q ----moveした後の状態---- # crm_mon ============ Last updated: Fri Mar 23 12:27:39 2012 Stack: Heartbeat Current DC: v00c.ss.jp (5162e974-3a14-4e12-a66a-eb94e6b08736) - partition with quorum Version: 1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87 2 Nodes configured, unknown expected votes 4 Resources configured. ============ Online: [ v00c.ss.jp v00d.ss.jp ] Resource Group: group1 res_Filesystem1 (ocf::heartbeat:Filesystem): Started v00c.ss.jp res_ip1 (ocf::heartbeat:IPaddr2): Started v00c.ss.jp res_vps1 (ocf::heartbeat:vps): Started v00c.ss.jp res_MailTo1 (ocf::heartbeat:MailTo): Started v00c.ss.jp Master/Slave Set: ms_drbd1 Masters: [ v00c.ss.jp ] Slaves: [ v00d.ss.jp ] Master/Slave Set: ms_drbd2 Masters: [ v00c.ss.jp ] Slaves: [ v00d.ss.jp ] group1のリソースが停止したあと、v00d側でリソースが立ち上がってくれません。 どこか、手順が間違って入るのでしょうか。各ホストのheartbeatのログを添付します。 また、heartbeatのリソース設定はcrmシェルから設定しています。 それも添付します。 不明点などがあれば、ご指摘頂下さい。 以上、よろしくお願い致します。 -------------- next part -------------- テキスト形式以外の添付ファイルを保管しました... ファイル名: v00c.log 型: application/octet-stream サイズ: 18423 バイト 説明: 無しDownload -------------- next part -------------- テキスト形式以外の添付ファイルを保管しました... ファイル名: v00d.log 型: application/octet-stream サイズ: 441 バイト 説明: 無し URL: http://lists.sourceforge.jp/mailman/archives/linux-ha-japan/attachments/20120323/6e647315/attachment-0001.obj -------------- next part -------------- テキスト形式以外の添付ファイルを保管しました... ファイル名: configure.log 型: application/octet-stream サイズ: 4044 バイト 説明: 無し URL: http://lists.sourceforge.jp/mailman/archives/linux-ha-japan/attachments/20120323/6e647315/attachment-0002.obj