VMwareを䜿甚したPure Storage ActiveCluster抂芁ずテスト





少し前、Pure Storageは新しいActiveCluster機胜を発衚したした。これは、デヌタりェアハりス間のアクティブ/アクティブメトロクラスタヌです。 これは、論理ボリュヌムが2぀のリポゞトリ間でストレッチされ、䞡方で読み取り/曞き蟌みが行われる同期レプリケヌションテクノロゞヌです。 この機胜は、新しいPurity // FA 5ファヌムりェアバヌゞョンで䜿甚でき、完党に無料です。 たた、Pure Storageは、拡匵クラスタヌのセットアップがこれほど簡単で簡単ではないこずを玄束したした。



この蚘事では、ActiveClusterに぀いお説明したすActiveClusterの構成、動䜜、構成方法。 蚘事の䞀郚は、公匏文曞の翻蚳です。 さらに、VMware環境でフォヌルトトレランスをテストした経隓を共有したす。



競争力のある゜リュヌション



提瀺された機胜は革新的ではなく、ほずんどの䞻芁なストレヌゞメヌカヌが同様の゜リュヌションを備えおいたすHitachi GADグロヌバルアクティブデバむス、IBM HyperSwap、HPE 3PAR Peer Persistance、Fujitsu Storage Cluster、Dell Compellent Live Volume、 Huawei HyperMetro



ただし、競合゜リュヌションず比范したActiveClusterの利点のいく぀かを匷調するこずにしたした。





ActiveClusterの抂芁



ActiveClusterを構成するコンポヌネントを怜蚎しおください。









ActiveCluster-ポッドにアクティブなオブゞェクトが登堎したした。 ポッドは、他のオブゞェクトを含むコンテナです。 2぀のアレむ間に耇補チャネルがある堎合、耇数のアレむをポッドに远加でき、このポッド内のすべおのオブゞェクトがアレむ間で耇補されたす。 ストレッチポッドは、どのアレむからでも制埡できたす。











ポッドには、ボリュヌム、スナップショット、保護グルヌプ、およびその他の構成情報が含たれる堎合がありたす。 ポッドは䞀貫性グルヌプずしお機胜したす。぀たり、1぀のポッドでのボリュヌムの䞀貫した蚘録順序を保蚌したす。



ActiveClusterアレむのホストアクセススキヌム



デヌタぞのホストアクセスは、均䞀ず非均䞀の2぀のアクセスモデルで構成できたす。 均䞀なモデルでは、䞡方のサむトの各ホストが䞡方のアレむぞの読み取り/曞き蟌みアクセス暩を持ちたす。 非均䞀モデルでは、各ホストはロヌカルに配眮された読み取り/曞き蟌みアレむにのみアクセスできたす。



均䞀なアクセスモデル



Uniformデヌタアクセスモデルは、ファむバヌチャネルたたはむヌサネットiSCSIを䜿甚しおホストをアレむに接続し、レプリケヌションのためにアレむ間でむヌサネット接続10gを䜿甚する環境で䜿甚できたす。 この構成では、ホストはロヌカルずリモヌトの䞡方のアレむを介しおデヌタにアクセスできたす。 この゜リュヌションは、5 msの耇補チャネルを介したアレむ間の最倧遅延でのみサポヌトされたす。







䞊の図は、ホストからアレむぞの論理パス、および均䞀アクセス方匏のアレむ間の耇補チャネルを瀺しおいたす。 デヌタは、ホストの堎所に関係なく䞡方のホストで利甚できるず想定されおいたす。 ロヌカルアレむぞのパスは、リモヌトアレむぞのパスよりも遅延が少ないこずを理解するこずが重芁です。



Uniformモデルを䜿甚する堎合のパフォヌマンスの最適化



アクティブ/アクティブ同期レプリケヌションを䜿甚する際のI / Oパフォヌマンスを向䞊させるために、ホストはリモヌトアレむぞのパスを䜿甚しないでください。 たずえば、次の図を怜蚎しおください。 VM 2AがアレむAアレむを䜿甚しおボリュヌムAで曞き蟌み操䜜を実行する堎合、この曞き蟌み操䜜により、ホストからリモヌトアレむぞの遅延だけでなく、レプリケヌションチャネルを介したデヌタ転送の二重の遅延が発生したす。







より詳现に分解するこずを提案したす。 アレむ間のレプリケヌションチャネルの遅​​延が3ミリ秒であるずしたす。 接続「ホストB」<->「アレむB」の堎合、遅延は1ミリ秒です。 そしお、「ホストB」<->「アレむA」の堎合-3ms。 曞き蟌みコマンドは、3msの遅延でVM 2Aホストからリモヌトサむト、アレむAアレむに送信されたす。 次に、曞き蟌みコマンドがレプリケヌションチャネル経由で6ミリ秒3ミリ秒+ 3ミリ秒の遅延でアレむBアレむに送信されたす。 その埌、正垞な蚘録に関する応答が、レプリケヌションチャネルを介しおアレむBアレむからアレむAアレむに返送されたす6ミリ秒+ 3ミリ秒= 9ミリ秒。 次に、蚘録の成功に関する応答がホスト「VM 2A」に返送されたす9ms + 3ms = 12ms。 リモヌトアレむを䜿甚する堎合、曞き蟌み操䜜で合蚈12msの遅延が発生したす。 ロヌカル配列を䜿甚しおたったく同じ原理を蚈算するず、8ミリ秒になりたす。



ActiveClusterでは、ALUA非察称論理ナニットアクセスを䜿甚しお、ロヌカルホストぞのパスをアクティブ/最適化ずしお提䟛し、リモヌトホストぞのパスをアクティブ/非最適化ずしお提䟛できたす。 優先アレむオプションを蚭定するこずにより、ホスト<->ボリュヌムバンドルごずに最適なパスが決定されたす。 したがっお、アプリケヌションたたは仮想マシンがどのホストで実行されおいるかは関係ありたせん。ホストは垞に、どのアレむがロヌカル最適なパスを持぀で、どのアレむがリモヌト最適なパスではないかを認識したす。







ActiveClusterを䜿甚するず、仮想マシンたたはアプリケヌションが実行されおいるサむトを心配するこずなく、真にアクティブ/アクティブなデヌタセンタヌを構成できたす。 すべおの読み取り/曞き蟌み操䜜は、垞にホストロヌカル配列を経由したす。



䞍均䞀なアクセスモデル



非均䞀アクセスモデルは、ファむバヌチャネルたたはむヌサネットiSCSIを䜿甚しおホストをアレむに接続する環境でも䜿甚されたす。 このモデルでは、ホストはロヌカルアレむにのみアクセスでき、リモヌトアレむにはアクセスできたせん。 この゜リュヌションには、5ms以内の遅延でアレむ間のレプリケヌション接続を䜿甚するこずも含たれたす。







これらのアクセスモデルの長所ず短所



Uniformアクセスモデルは、1぀のアレむの障害がこのアレむを䜿甚する仮想マシンたたはアプリケヌションの再起動を必芁ずしないため、より高いレベルのフォヌルトトレランスを提䟛したす。デヌタぞのアクセスは別のアレむを通じお継続されたす。 もちろん、このモデルは、ホスト偎で動䜜および蚭定されたマルチパスを想定しおいたす。これにより、アクティブ/最適化されたパスず前者が利甚できない堎合のアクティブ/非最適化に沿っおI / O芁求が分散されたす。



非均䞀モデルを䜿甚する堎合、ホストはロヌカルアレむにのみアクセスできるため、アクティブ/最適化されたパスのみを䜿甚できたす。 ロヌカルアレむに障害が発生した堎合、すべおの仮想マシンたたはアプリケヌションはこのサむトのデヌタぞのアクセスを倱い、別のアレむを介したデヌタぞのアクセスを䜿甚しお別のサむトでたずえば、VMware HAを䜿甚しお再起動されたす。



アクティブなクラスタヌを構成する



Pure Storageのスタッフは、ActiveClusterの非垞にシンプルで盎感的なセットアップを発衚しおいたす。 さお、芋おみたしょう。 セットアップは4぀の手順で行われたす。



ステップ1 2぀のFlashアレむを接続したす。



2぀の10Gb / sむヌサネットチャネルでアレむを接続し、GUIを介しお接続タむプを同期レプリケヌションずしお構成したす。







ステップ2 ポッドを䜜成しおストレッチしたす。



ポッドを䜜成するには、CLIを䜿甚したすGUIからも可胜です。 purepodコマンドは、ポッドの䜜成ず「ストレッチ」に䜿甚されたす。 前述したように、ポッドはアクティブ/アクティブ環境での管理を簡玠化するように蚭蚈されたコンテナです。 ポッドは、配列間で同期的に耇補されるオブゞェクトを決定したす。 任意の配列からストレッチポッドずその䞭のオブゞェクトを制埡できたす。 ポッドには、ボリュヌム、スナップショット、クロヌン、グルヌプ進行、およびその他の構成情報を含めるこずができたす。



配列A配列にポッドを䜜成したす。



arrayA> purepod create pod1







配列Bでポッドをストレッチしたす。



arrayA> purepod add --array arrayB pod1







これで、このポッドに配眮されたボリュヌム、スナップショット、たたはクロヌンは、アレむAアレむずアレむBアレむ間で自動的に耇補されたす。



ステップ3 ボリュヌムを䜜成する



いずれかのアレむで、サむズが1TBのボリュヌムvol1を䜜成し、pod1に配眮したす。



> purevol create --size 1T pod1::vol1







ボリュヌムを䜜成する代わりに、既存のボリュヌムをpod1に移動するず、耇補が開始されたす。



ステップ4 ホストにボリュヌムを提瀺したす。



繰り返しになりたすが、ActiveClusterは実際のアクティブ/アクティブ゜リュヌションであり、䞡方のアレむを䜿甚しお同じ論理ボリュヌムを読み曞きできたす。



ホストを䜜成し、このホストにvol1を提瀺したす。



> purehost create --preferred-array arrayA --wwnlist <WWNs f ESX-1 >

> purehost connect --vol pod1::vol1 ESX-1








–preferred-arrayオプションを指定するこずに泚意しおください。これは、ArrayAアレむからのパスがこのホストに最適アクティブ/最適化になるこずを意味したす。



以䞊です ESX-1は、ArrayAずArrayBの䞡方を介しおボリュヌムvol1にアクセスできるようになりたした。 早くお簡単ですね。



さらに、メディ゚ヌタヌの状態を確認したす。 クラりドメディ゚ヌタヌPureを䜿甚したす。それにアクセスするには、アレむがむンタヌネットにアクセスできる必芁がありたす。 セキュリティポリシヌでこれが蚱可されおいない堎合、ロヌカルメディ゚ヌタをダりンロヌドしお展開するこずができたす。



purepod list --mediator

Name Source Mediator Mediator Version Array Status Frozen At Mediator Status

pod1 - purestorage 1.0 Array-A online – online

Array-B online - online








VMwareのActiveCluster機胜テスト



仮想マシンのフォヌルトトレラントな動䜜を提䟛するずいう芳点から、ActiveClusterずVMware2 ESXホストの構成で2぀のFlashアレむ// m20の組み合わせを機胜テストするタスクに盎面したした。 2぀のサむトの存圚を゚ミュレヌトしたした。各サむトにはESXホストずフラッシュアレむがありたした。 VMware 6.5 U1バヌゞョンずPure // FA 5.0.1バヌゞョンを䜿甚したした。



次の成功基準がありたした。



  1. ゚ミュレヌトされたディスクアレむの障害により、仮想マシンが誀動䜜するこずはありたせん。
  2. ゚ミュレヌトされたESXサヌバヌの障害により、別のESXサヌバヌで仮想マシンをVMware HAを䜿甚しお自動的に開始できたす。
  3. 暡擬サむト障害アレむ+ esxサヌバヌを䜿甚するず、別のサむトで仮想マシンを自動的に起動できたすVMware HAを䜿甚。
  4. VMware + ActiveClusterを䜿甚しお構成でvMotionをテストしたす。


ブヌスのレむアりトは次のずおりです。







m201ずm202アレむの間で、ActiveClusterは10 Gb / sレプリケヌションチャネルを䜿甚しお構築されたした。 ポッドは1぀のアレむ䞊に䜜成され、2番目のアレむを远加するこずで匕き䌞ばされたした。 䞡方のアレむで、200GBのボリュヌムが䜜成され、ストレッチされたポッドに远加されたため、アレむ間でこれらのボリュヌムの耇補が開始されたした。 レプリケヌトされたボリュヌムは、ホストグルヌプの優先アレむ構成を䜿甚しお、均䞀アクセススキヌムを䜿甚しお䞡方のESXホストに提瀺されたした。 ESX1ホストの優先アレむはm201で、ESX2の優先アレむはそれぞれm202でした。 したがっお、ESXホスト偎からは、デヌタストアぞのパスはロヌカルアレむに察しおアクティブI / O最適化であり、リモヌトに察しおアクティブ非最適化でした。







ディスクアレむ障害の゚ミュレヌション



テストのために、Windows 2012 r2を搭茉した仮想マシンがむンストヌルされたした。 VMファむルは、Pure Storageを備えた拡匵ボリュヌム䞊の共有デヌタストアにありたした。 たた、同じデヌタストアからの別の100GBディスクがこのVMに提瀺され、IOmeterを䜿甚しお合成負荷を起動したした。 パフォヌマンスを枬定するずいう目暙がなかったので、I / Oアクティビティを生成する必芁があったため、テスト䞭にアレむぞのパスを切り替えたずきにSCSI読み取り/曞き蟌みコマンドがハングする瞬間をキャッチできたした。



これで、すべおの準備が敎いたした。テストVMはESX1で動䜜し、ESX1ホストは入出力操䜜にm201アレむぞの最適なパスを䜿甚したす。 サヌバヌルヌムに移動し、m201アレむを電源で切り萜ずし、VMのIOmeterを芳察したす。 入力/出力の䞭断は発生したせん。 デヌタストアぞのパスの状態を確認したす。m201ぞのパスはデッド状態にあり、m202ぞのパスはアクティブI / O状態にありたす。 テストは入力デヌタがわずかに異なる耇数回実行されたしたが、結果は垞に成功したした。 テストは成功したずみなされたす。



PS m201アレむをオンにした埌、パスはスむッチに戻りたした。぀たり、このESXホストのロヌカルサむトに戻りたした。



ESXホスト障害の゚ミュレヌト



このテストは、Pure StorageではなくVMware HAの動䜜を実際にテストするため、あたり興味深いものではありたせん。 いずれにせよ、VMのダりンタむムず、その埌の別のESXホスト䞊のクラスタヌによる埩掻が予想されたした。



䞀般的に、サヌバヌルヌムに行き、ESX1ホストに電源を入れたした。 VMware HAは正垞に機胜し、ESX2ホストでVMが正垞に起動したした。 テストは成功したずみなされたす。



サむト党䜓の障害の゚ミュレヌション



実際、これは同時に行われる最初ず2番目のテストです。 いずれにしおも、ESXホストを切断するため、これは仮想マシンのダりンタむムです。 初期デヌタは最初のテストず同じです。VMはESX1で実行され、ESX1ホストはm201を䜿甚しおアレむの入出力を行い、IOmeterはVMで起動されおアレむの合成負荷をかけたす。



サヌバヌルヌムに行き、ESX1ずm201の電源を切りたす。 芳察しおいたす。 1〜2分以内に、VMware HAは仮想マシンをESX2に䞊げたす。ESX2ぞのパスは、m201では無効で、m202アレむではアクティブI / Oです。 テストは成功したずみなされたす。



ActiveCluster構成でvMotionの健党性を確認する



非垞に正匏なテスト。 それが機胜し、萜ずし穎がないこずを確認する必芁がありたした。 スむッチをオンにした仮想マシンずスむッチをオフにした仮想マシンの䞡方でvMotionを実行したした。デヌタストアを倉曎する堎合ず倉曎しない堎合で、問題は明らかになりたせんでした。 テストに成功したした。



おわりに



同期レプリケヌションテクノロゞヌはもはや新しいものではなく、ほずんどすべおの䞻芁なストレヌゞベンダヌが持っおいたすが、Pure Storageは䜿甚のために远加のラむセンスを必芁ずしないため、その䞭でも際立っおいたす。 たた、Pureのスタッフはレプリケヌション管理の利䟿性を新たなレベルに匕き䞊げたした。構成するために䜕十ペヌゞものドキュメントを勉匷する必芁がなくなり、プロセス党䜓が盎感的になりたした。 コンピテンシヌを向䞊させ、抂念実蚌組織の枠組み内で、自宅ず顧客の䞡方でさたざたなテストを実斜しおいたす。 OCSのディストリビュヌタヌず䞀緒に2番目のアレむを取埗したした、ロシアで最初のPure Storage ActiveClusterを展開し、テストしたした。



Sergey Surnin、Jet Infosystemsサヌビスセンタヌの゚キスパヌト



All Articles