Wada, Shinichirou
wada.****@jp*****
2013年 9月 17日 (火) 19:56:48 JST
山内さん こんばんは。 和田です。 確認および連絡が遅くなりました。 ご教示いただいた方法で、切り替わることは確認できました。 ただ、今の設定では当たり前かもしれませんが、clone-maxを指定していないため Stoppedと起動しない側のリソースで表示されています。 これを表示させないようにする方法はございますでしょうか? 見た目だけの話ですのでできないようであればあきらめます。。 ---- Online: [ it201 it202 it203 it204 ] Resource Group: group_all fs_db (ocf::heartbeat:Filesystem): Started it201 prmPg (ocf::heartbeat:pgsql): Started it201 prmDummy (ocf::heartbeat:Dummy): Started it201 Master/Slave Set: ms_drbd_db Masters: [ it201 ] Slaves: [ it202 ] Clone Set: clnPing1 Started: [ it201 it202 ] Stopped: [ prmPing1:2 prmPing1:3 ] Clone Set: clnPing2 Started: [ it203 it204 ] Stopped: [ prmPing2:2 prmPing2:3 ] Clone Set: cln_all Started: [ it203 ] ---- なお、ログとpengineにつきましてはサイズが大きいようですので、 確認に必要そうであれば個別に送付させて頂きたいと考えておりますので、 お知らせください。 また、送付する場合は全リソース分必要という認識なのですがあっているでしょうか? よろしくお願い致します。 > -----Original Message----- > From: linux****@lists***** [mailto:linux****@lists*****] On Behalf Of Wada, > Shinichirou > Sent: Friday, September 13, 2013 10:57 PM > To: linux****@lists***** > Subject: Re: [Linux-ha-jp] Active/Passive構成およびN+1構成の共存環境での挙動について > > 山内さん > > こんばんは。 > 和田です。 > > いつもありがとうございます。 > > まだ、試せていないのですが、ご教示いただいた方法で > まずは確認してみようと思います。 > > 確認後に改めて連絡させてもらいます。 > > よろしくお願いします。 > > > -----Original Message----- > > From: linux****@lists***** > > [mailto:linux****@lists*****] On Behalf Of > > renay****@ybb***** > > Sent: Friday, September 13, 2013 4:22 PM > > To: linux****@lists***** > > Subject: Re: [Linux-ha-jp] Active/Passive構成およびN+1構成の共存環境での挙動について > > > > 和田さん > > > > こんにちは、山内です。 > > > > 詳細は、事象が発生した時のpeファイルを確認してみないと何とも言えないのですが。。。。 > > > > さらっと、構成ファイルを見て感じたのですが・・・・・ > > > > 確かノード数がN数の場合、cloneリソースのclone-maxを設定していると、colocationの制御が微妙に変わるはずです。 > > この影響で、clonPing1が再起動するの動作になっているのではないでしょうか? > > > > これを回避する為には、cloneリソースのclone-maxを設定しない方法になります。 > > > > clone clnPing1 prmPing1 \ > > meta clone-node-max="1" > > > > clone clnPing2 prmPing2 \ > > meta clone-node-max="1" > > > > #設定しない場合は、オンラインノード数で自動セットされますが。。基本的に、書かない場合でも、和田さんの以下の設定が有 > 効 > > になるので、正しく配置されるはずです。 > > > > location rsc_location-clnPing1 clnPing1 \ > > rule -INFINITY: #uname eq it203 \ > > rule -INFINITY: #uname eq it204 > > > > location rsc_location-clnPing2 clnPing2 \ > > rule -INFINITY: #uname eq it201 \ > > rule -INFINITY: #uname eq it202 > > > > > > > ・cln_allに障害が発生した場合は適切に切り替わります。 > > こちらに関しては、詳細をみないとわかりませんが・・・ > > > > 事象が発生した直前あたりからのDCノードのログと、この時のDCノードの/var/lib/pengine/の内容(前述のpeファイル)を送 > っ > > ていただければもう少し原因の詳細がわかると思います。 > > > > 以上です。 > > --- On Fri, 2013/9/13, Wada, Shinichirou <wada.****@jp*****> wrote: > > > > > こんにちは。 > > > 和田です。 > > > > > > 久しぶりに質問させて頂きます。 > > > どうぞ、よろしくお願い致します。 > > > > > > Active/Passive構成およびN+1構成の共存環境での挙動について > > > 障害が発生しても切り替わらないケースがありましたので、 > > > ご教示頂ければと考えています。 > > > > > > ■バージョン情報は以下になります。 > > > ・RHEL6.3 > > > ・pacemaker-1.0.13-1.1.el6.x86_64.repo.tar.gz > > > ※Corosync+Pacemakerの構成しています。 > > > ・drbd-8.4.3.tar.gz > > > > > > なお、旧バージョンでも同じ事象でした。 > > > > > > ■構成は以下になります。(configファイルを添付しています。) > > > ┏━━━━━━━━━━━━━┳━━━━━━━━━━━━━┓ > > > ┃┌─────┐ ┃┌─────┐ ┃ ┃│group_all │ > > > ┃│ cln_all │ ┃ ┃└─────┘ ┃└─────┘ ┃ > > > ┃┌───────────┐┃ ┃ ┃│ drbd_db │ > > ┃ > > > ┃ ┃├─────┬─────┤┃ ┃ ┃│ Master │ Slave > > > │ > > ┃ > > > ┃ ┃└─────┴─────┘┃ ┃ > > > ┃┌─────┬─────┐┃┌─────┬─────┐┃ ┃│ clnPing1 │ clnPing1 │┃│ clnPing2 │ > > > clnPing2 │┃ ┃└─────┴─────┘┃└─────┴─────┘┃ > > > ┣━━━━━━┳━━━━━━╋━━━━━━┳━━━━━━┫ ┃ it201 ┃ it202 ┃ it203 > > > ┃ > > > it204 ┃ ┣━━━━━━┻━━━━━━╋━━━━━━┻━━━━━━┫ ┃ Active/Passive構成 ┃ > > > N+1構成 ┃ ┗━━━━━━━━━━━━━┻━━━━━━━━━━━━━┛ > > > > > > 上記の構成をひとつのクラスタとして管理しています。 > > > cln_allは今回の構成(ログ)では1つですが、N+1のN個ほど起動させています。 > > > Nの台数にかかわらず、下記に記載する事象は同じです。 > > > > > > ■ご教示頂きたい内容。 > > > ・group_allに登録されているリソースに障害が発生しても > > > it201/it202のclonPing1が再起動を繰り返し、切替えが行えなえませんでした。 > > > ただし、OSやcorosyncの停止・再起動を行えば、切替えが行えます。 > > > 上記のような構成について制限があるかご教示頂けますでしょうか? > > > > > > なお、 > > > ・drbd_dbに障害が発生した場合も同様の事象が発生します。 > > > ・cln_allに障害が発生した場合は適切に切り替わります。 > > > > > > また、情報に不足等あればお知らせください。 > > > ※ログファイルは4台分を圧縮して200kbありましたので添付を見送りました。 > > > > > > よろしくお願い致します。 > > > > > > > > > > _______________________________________________ > > Linux-ha-japan mailing list > > Linux****@lists***** > > http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan > _______________________________________________ > Linux-ha-japan mailing list > Linux****@lists***** > http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan