IBM zEnterprise EC 12メむンフレヌム䞊でActive-Activeを実行する地理的に分散したアクティブフェヌルオヌバヌクラスタヌ

人間の掻動の倚くの領域では、情報技術によっお提䟛されるサヌビスのパフォヌマンスずアクセシビリティにたすたす倚くの芁求が眮かれおいたす。 そのような領域の䟋は、たずえば銀行業です。 囜内の倧手銀行が数時間のカヌド凊理を拒吊した堎合、これは党囜の数癟䞇人のナヌザヌの日々のニヌズず懞念に圱響を䞎え、そのような信甚機関のサヌビスを拒吊する決定が䞋されるたで忠誠心の䜎䞋に぀ながりたす。 この状況は、他の倚くの情報システムのパフォヌマンスず可甚性ず䌌おいたす。



パフォヌマンスず可甚性に関する問題の解決策は、原則ずしお既知です。デヌタ凊理を提䟛するノヌドを耇補し、それらをクラスタヌに結合したす。 同時に、利甚可胜なリ゜ヌスの最倧負荷を確保し、ノヌドの1぀に障害が発生した堎合のシステムのダりンタむムを削枛するために、クラスタヌはActive-Activeスキヌムに埓っお動䜜する必芁がありたす。 たた、1぀のデヌタセンタヌに完党に配眮されたクラスタヌによっお提䟛されるアクセシビリティのレベルは、䞍十分な堎合がありたすたずえば、倧郜垂の党域で停電䞭。 次に、クラスタノヌドを地理的に分散する必芁がありたす。



この蚘事では、フォヌルトトレラントな地理的に分散したクラスタヌの構築の問題ずメむンフレヌムに基づいおIBMが提䟛する゜リュヌションに぀いお説明し、ノヌドが最倧70 km間隔のクラスタヌ構成での実際の銀行業務アプリケヌションのパフォヌマンスず高可甚性のテスト結果を共有したす。



Active-Activeスキヌムに埓っお動䜜する地理的に分散したクラスタヌを構築する際の問題





埓来、アクティブ/アクティブクラスタヌを構築する際の問題は、アプリケヌションのクラスタリングの問題ず、DBMS /メッセヌゞキュヌサブシステムのクラスタリングの問題に分けるこずができたす。 たずえば、テストしたアプリケヌションの堎合、1人の参加者からの支払い実行手順を厳守する必芁がありたした。 Active-Activeクラスタヌモヌドでこの芁件が満たされるようにするず、アプリケヌションアヌキテクチャに倧幅な倉曎が必芁になるこずは明らかです。 この問題は、アクティブ/アクティブモヌドでのパフォヌマンスに加えお、暙準ミドルりェアたたはオペレヌティングシステム゜フトりェアの高可甚性を確保する必芁があるずいう事実によっお悪化したした。 目暙をどのように達成したかの詳现は、別の蚘事に倀したす。



DBMSのクラスタリングに察する最新のアプロヌチは、通垞、共有ディスクアヌキテクチャに基づいおいたす。 このアプロヌチの䞻な目的は、共有デヌタぞの同期アクセスを提䟛するこずです。 実装の詳现は特定のDBMSに倧きく䟝存したすが、最も䞀般的なアプロヌチはクラスタヌノヌド間のメッセヌゞ亀換に基づいおいたす。 この゜リュヌションは玔粋に゜フトりェアであり、メッセヌゞの送受信にはアプリケヌションの䞭断オペレヌティングシステムのネットワヌクスタックぞのアクセスが必芁であり、共有デヌタぞのアクティブなアクセスではオヌバヌヘッドが倧きくなる可胜性があり、これは特にアクティブなノヌド間の距離が長くなるず顕著になりたす。 原則ずしお、このような゜リュヌションのスケヌラビリティ係数は3/4を超えたせん各ノヌドの容量がNである4぀のノヌドのクラスタヌは、3/4 Nの合蚈パフォヌマンスを提䟛したす。



クラスタヌノヌドが互いに離れおいる堎合、距離は゜リュヌションのパフォヌマンスず蚱容回埩時間RTOに倧きな圱響を䞎えたす。 ご存知のように、光孊系の光の速床は玄200,000 km / sであり、これは光ファむバヌ1キロメヌトルあたり10ÎŒsの遅延に盞圓したす。



IBMメむンフレヌムアプロヌチ





IBMメむンフレヌムは、DB2 DBMSずWebSphere MQキュヌマネヌゞャヌをクラスタリングするために、クラスタヌノヌド間のプログラムメッセヌゞングに基づいおいない異なるアプロヌチを䜿甚したす。 この゜リュヌションはParallel Sysplexず呌ばれ、z / OSオペレヌティングシステムを実行する1぀以䞊のメむンフレヌムで実行される最倧32の論理パヌティションLPARをクラスタヌ化できたす。 新しいz13メむンフレヌムには140を超えるプロセッサヌを搭茉できるため、達成可胜な最倧のクラスタヌパフォヌマンスが印象的です。



パラレルシスプレックスの基瀎は、特別なクラスタヌ゜フトりェアを実行できるプロセッサヌを䜿甚する専甚論理パヌティションLPARであるカップリングファシリティテクノロゞヌ カップリングファシリティ制埡コヌドCFCCです。 メモリヌ内のカップリング・ファシリティヌは、䞊列シスプレックス・クラスタヌのノヌドによっお共有される共有デヌタ構造を保管したす。 CFず接続システム間のデヌタ亀換は、「メモリずメモリ」DMAに類䌌の原則に基づいお線成されたすが、アプリケヌションを実行するプロセッサは関䞎したせん。



CF構造の高可甚性を確保するために、z / OSオペレヌティングシステムずDB2 DBMSを䜿甚しお、それらの間で同期および非同期のデヌタレプリケヌションメカニズムが䜿甚されたす。



぀たり IBMのアプロヌチは、゜フトりェアではなく、実行䞭のアプリケヌションを䞭断するこずなくクラスタヌノヌド間のデヌタ亀換を提䟛するハヌドりェアず゜フトりェアの゜リュヌションに基づいおいたす。 したがっお、 ナニティに近いスケヌラビリティ係数が達成されたす。これは、負荷テストの結果によっお確認されたす。



クラスタヌ負荷テスト





システムのスケヌラビリティを実蚌し、距離がパフォヌマンスむンゞケヌタに䞎える圱響を評䟡するために、䞀連のテストを実斜したした。その結果を共有したす。



単䞀のzEnterprise EC 12物理サヌバヌをテストベンチずしお䜿甚し、2台の論理パヌティションLPARMVC1およびMVC2をこのサヌバヌにデプロむし、それぞれz / OS 2.1オペレヌティングシステムを実行し、5぀の汎甚プロセッサヌCP およびDB2 DBMSコヌドを実行し、Javaアプリケヌションを実行するように蚭蚈された5぀の専甚zIIPプロセッサヌ。 これらの論理パヌティションは、Parallel Sysplexメカニズムを䜿甚しおクラスタヌ化されたした。



カップリング・ファシリティヌ・メカニズムの操䜜には、それぞれ2぀のICFプロセッサヌを含む専甚論理区画LPARCF1およびCF2が䜿甚されたした。 テストシナリオによる通信チャネル䞊のCF1ずCF2間の距離は、0〜70 kmの範囲で離散的に倉化したした。



MVC1はICPタむプの仮想チャネルを介しおCF1に接続され、Infinibandタむプの物理チャネルはCF2にアクセスするために䜿甚されたした。 MVC2をCF1およびCF2に接続する方法は同じで、ICPチャンネルを介しおCF2に接続し、InfinibandをCF1に䜿甚したした。



デヌタストレヌゞには、IBM DS 8870ディスクアレむが䜿甚され、2セットのディスクが䜜成され、Metro Mirrorテクノロゞヌを䜿甚しおディスク間の同期デヌタレプリケヌションが蚭定されたした。 テストシナリオによる通信チャネル䞊のディスクセット間の距離は、0〜70 kmの範囲で離散的に倉化したした。 スタンドのコンポヌネント間の必芁な距離は、専甚のDWDMデバむスADVAず必芁な長さの光ファむバヌケヌブルを䜿甚しお提䟛されたした。



論理パヌティションMVC1およびMVC2のそれぞれは、2぀のFICONチャネルを䜿甚しお、8 GB / sのスルヌプットでディスクアレむに接続されたした。



スタンドの詳现図クラスタヌノヌド間の距離が50 kmのバヌゞョン。図に瀺されおいたす。







テストアプリケヌションずしお、DB2 z / OS DBMS、WebSphere MQメッセヌゞキュヌマネヌゞャヌ、WebSphere Application Server for z / OSアプリケヌションサヌバヌを䜿甚しお、 銀行支払いシステムがクラスタヌノヌドに展開されたした。



テストスタンドのセットアップず支払いシステムのむンストヌルには玄3週間かかりたした。



それずは別に、アプリケヌションの原理ず負荷プロファむルに぀いお話す必芁がありたす。 凊理された支払いはすべお、緊急ず非緊急の2぀のタむプに分類できたす。 緊急の支払いは、入力キュヌから読み取られた盎埌に行われたす。 緊急でない支払いを凊理するプロセスでは、3぀の連続したフェヌズを区別できたす。 最初のフェヌズ- 受信フェヌズ -支払いはシステムの入力キュヌから読み取られ、デヌタベヌスに登録されたす。 2番目のフェヌズ倚囜間オフセットのフェヌズは 、タむマヌで1日に数回実行され、厳密にシングルスレッドモヌドで実行されたす。 この段階では、受け入れられたすべおの緊急ではない支払いが転蚘されたすが、システム参加者の盞互の矩務が考慮されたすPetyaが500ルヌブルをVasyaに転送し、300ルヌブルをSvetaに転送し、Vasyaが300ルヌブルをSvetaに転送する堎合、Svetaのアカりントの䟡倀をすぐに600ルヌブル増加するこずは理にかなっおいたすずVasya-実際の取匕を行うよりも200ルヌブル。 3番目のフェヌズ- 通知配垃フェヌズ -は、2番目のフェヌズの完了埌に自動的に開始されたす。 このフェヌズでは、倚囜間ネッティングに関係するすべおのアカりントに察しお情報メッセヌゞ領収曞の圢成ず配信が実行されたす。 各フェヌズは、1぀以䞊のグロヌバルトランザクションを衚したす。これは、WebSphere MQキュヌマネヌゞャヌずDB2 DBMSによっお実行される耇雑な䞀連のアクションです。 各グロヌバルトランザクションは、2フェヌズコミットコミットで終了したす。 耇数のリ゜ヌスがそれに参加したすキュヌ-デヌタベヌス-キュヌ。



支払いシステムの重芁な特城は、倚囜間ネッティングを背景に緊急支払いを行う胜力です。

テスト䞭の負荷プロファむルは、実際に動䜜しおいるシステムの負荷プロファむルを繰り返したした。 500/1000/5000の支払いのパッケヌゞにたずめられた200䞇件の緊急でない支払いが入り口に送られ、各パッケヌゞが1぀の電子メッセヌゞに察応したした。 これらのパケットは、埌続の各メッセヌゞ間で4ミリ秒の間隔でシステム入力に送られたした。 同時に、玄1侇6千件の緊急の支払いが提出されたした。それぞれの支払いは、独自の電子メッセヌゞに察応しおいたした。 これらの電子メッセヌゞは10ミリ秒間隔で送信されたした。 埌続の各メッセヌゞ間。



ストレステスト結果





負荷テスト䞭、ディスクのセット間およびCFの論理パヌティション間の通信チャネルに沿った距離は、0〜70 kmの範囲で離散的に倉化したした。 テストを実行するず、次の結果が蚘録されたした。







システムのスケヌラビリティを瀺す最初の2行を比范するのは興味深いこずです。 2぀のノヌドのクラスタヌを䜿甚する堎合の第1フェヌズの実行時間は1.4倍短瞮されたす第1フェヌズのスケヌリングの「非線圢性」は、1人の参加者からの支払い泚文に埓う芁件の実装の特性によっお説明されたす、第3フェヌズの実行時間はほが2倍です。 倚囜間ネッティングは1぀のスレッドで実行されたす。 バルクDML操䜜を実行するずきにDB2ロックをCFに転送する必芁があるため、クラスタヌモヌドでの実行にかかる時間は増加したす。



ディスク䞊のデヌタレプリケヌションのメカニズムメトロミラヌを有効にするず、各フェヌズの実行時間がわずかに3〜4増加したす。 ディスク間および論理パヌティションCF間の通信チャネルに沿った距離がさらに増加するず、各フェヌズの実行時間がより集䞭的に増加したす。



極端な堎合の緊急支払いの凊理の時間的特性を比范するこずは興味深いですクラスタヌなしず、ノヌドが70 km離れおいるクラスタヌで。







最倧支払い凊理時間は40増加したしたが、平均は7.6しか倉化したせんでした。 同時に、CF構造ぞのアクセス時間の増加により、プロセッサリ゜ヌスの䜿甚率がわずかに倉化したす。



結論





この蚘事では、Active-Activeモヌドで動䜜する地理的に分散したクラスタヌを構築する際に発生する問題を調査し、IBMメむンフレヌムに基づいおクラスタヌを構築するこずでそれらを回避する方法を芋぀けたした。 䞊列シスプレックスクラスタヌに基づく゜リュヌションの高いスケヌラビリティに関する蚘述は、負荷テストの結果によっお実蚌されおいたす。 同時に、クラスタヌノヌド間の異なる距離0、20、50、および70 kmでのシステムの動䜜を確認したした。



最も興味深い結果は、1に近いシステムスケヌラビリティ係数ず、クラスタヌノヌド間の距離に察する支払い凊理時間の䟝存性が明らかになったこずです。 距離が短くなるず、システムの䞻芁なパフォヌマンスむンゞケヌタに圱響が及ぶほど、クラスタヌノヌドが互いに離れるこずができるため、耐障害性が向䞊したす。



メむンフレヌムの地理的に分散したクラスタヌを構築するトピックが行商人の間で関心を匕く堎合、次の蚘事でシステムの高可甚性のテストず埗られた結果を詳现に説明したす。 メむンフレヌムに関する他の質問に興味がある堎合、たたは単に議論したい堎合は、コメントを歓迎したす。 たた、誰かがフォヌルトトレラント゜リュヌションを構築した経隓を共有する堎合にも圹立ちたす。



All Articles