VMware Virtual SAN 6.5の理論

この蚘事では、VMware Virtual SANの目的、その動䜜原理、このシステムの芁件、機胜、制限、蚭蚈の䞻な掚奚事項を開瀺しようずしたした。



Virtual SANの抂念



VMware Virtual SAN以降vSANは、vSphereに基づくハむパヌコンバヌゞドむンフラストラクチャHCIの組織向けの分散゜フトりェアストレヌゞシステムSDSです。 vSANはESXiハむパヌバむザヌに組み蟌たれおいるため、远加のサヌビスやサヌビスVMを展開する必芁はありたせん。 vSANを䜿甚するず、ロヌカルホストメディアを単䞀のストレヌゞプヌルに結合しお、特定のレベルのフォヌルトトレランスを提䟛し、すべおのホストずVMクラスタヌにそのスペヌスを提䟛できたす。 したがっお、仮想化vSphereテクノロゞヌのすべおの機胜を明らかにするために必芁な集䞭ストレヌゞを取埗し、専甚の埓来のストレヌゞシステムを実装および維持する必芁はありたせん。



vSANはvSphereクラスタヌレベルで開始されたす。クラスタヌの管理で察応するサヌビスを開始し、クラスタヌホストのロヌカルメディアを手動モヌドたたは自動モヌドで提䟛するだけで十分です。 VMwareむンフラストラクチャの倖郚で動䜜できる独立したSDS補品が存圚できないため、vSANはvSphereに組み蟌たれおおり、vSphereにしっかりず接続されおいたす。



vSANの類䌌補品ず競合補品は、Nutanix DSFNutanix Distributed Storage、Dell EMC ScaleIO、Datacore Hyper-converged Virtual SAN、HPE StoreVirtualです。 これらのすべおの゜リュヌションは、VMware vSphereだけでなく、MS Hyper-V䞀郚はKVMずも互換性があり、各HCIホストにサヌビスVMのむンストヌルず起動が必芁です。これは、SDSが機胜するために必芁であり、ハむパヌバむザヌに組み蟌たれおいたせん。



HCIの重芁なプロパティ。 VMware vSphere + vSANは、氎平方向のスケヌラビリティずモゞュラヌアヌキテクチャです。 HCIは、同䞀のサヌバヌブロックホストたたはノヌドに基づいお構築および拡匵され、コンピュヌティングリ゜ヌス、ストレヌゞリ゜ヌスロヌカルメディア、およびネットワヌクむンタヌフェむスを組み合わせたす。 これは、個別に提䟛されるコモディティ機噚ブランド補品を含むx86サヌバヌ、たたは既補のアプリケヌションNutanix、vxRail、Simplivityなどになりたす。 統合゜フトりェアたずえば、vSphere + vSAN + VMM_orientationツヌルを䜿甚するず、仮想化環境、SDN゜フトりェア定矩ネットワヌク、SDS、集䞭管理および自動化/オヌケストレヌションツヌルなど、これらのブロックに基づいお゜フトりェア定矩デヌタセンタヌSDDSを䜜成できたす。 もちろん、専甚の物理ネットワヌク機噚スむッチの必芁性を忘れおはなりたせん。これがなければ、HCIホスト間の盞互䜜甚は䞍可胜です。 同時に、デヌタセンタヌがネットワヌクを敎理するのに最適なリヌフスパむンアヌキテクチャを䜿甚するこずをお勧めしたす。



vSANは、vCenterの䞋のESXiホストクラスタヌレベルで䞊昇し、クラスタヌ内のホストに分散集䞭ストレヌゞを提䟛したす。 vSANクラスタヌは、2぀のバヌゞョンで実装できたす。



•ハむブリッド-フラッシュドラむブはキャッシュキャッシュレむダヌずしお䜿甚され、HDDはメむンストレヌゞ容量容量レむダヌを提䟛したす。



•オヌルフラッシュ-フラッシュドラむブは、キャッシュず容量の䞡方のレベルで䜿甚されたす。



メディアを既存のホストに远加するか、クラスタヌに新しいホストをむンストヌルするこずにより、vSANクラスタヌを拡匵できたす。 クラスタヌのバランスを維持する必芁があるこずに留意しおください。぀たり、理想的には、ホストおよびホスト自䜓のメディアの構成は同䞀である必芁がありたす。 クラスタヌのvSANキャパシティに参加しおいるメディアのないホストを含​​めるこずはできたすが、お勧めできたせんが、vSANクラスタヌの共有ストレヌゞでVMをホストするこずもできたす。



vSANず埓来の倖郚ストレヌゞシステムを比范するず、次の点に泚意する必芁がありたす。



•vSANでは、倖郚ストレヌゞおよび専甚ストレヌゞネットワヌクの組織は必芁ありたせん。



•vSANでは、LUNずファむルグロヌブのスラむスを必芁ずせず、それらをホストおよび関連するネットワヌク盞互䜜甚蚭定に提瀺したす。 アクティブ化埌、vSANはすべおのクラスタヌホストですぐに䜿甚可胜になりたす。



•vSANデヌタ送信は、独自の独自プロトコルを䜿甚しお実行されたす。 vSANの組織ず運甚のための暙準のSAN / NASプロトコルFC、iSCSI、NFSは必芁ありたせん。



•vSAN管理は、vSphereコン゜ヌルからのみ実行されたす。 vSphere甚の個別の管理ツヌルや特別なプラグむンは必芁ありたせん。



•専甚のストレヌゞマネヌゞャヌは必芁ありたせん。 vSANの構成ずメンテナンスは、vSphere管理者が実行したす。



メディアおよびディスクグルヌプ



各vSANクラスタヌホストには、少なくずも1぀のキャッシュずデヌタメディア容量たたはデヌタディスクが必芁です。 各ホスト内のこれらのメディアは、1぀以䞊のディスクグルヌプに結合されたす。 各ディスクグルヌプには、1぀のキャッシュメディアず、氞続ストレヌゞ甚の1぀以䞊のストレヌゞメディアのみが含たれたす。



vSANによっお提䟛され、ディスクグルヌプに远加されたメディアは完党に䜿甚され、他のタスクや耇数のディスクグルヌプでは䜿甚できたせん。 これは、キャッシュドラむブず容量ドラむブの䞡方に適甚されたす。



vSANは、DASを介しお接続されたロヌカルメディアたたはドラむブのみをサポヌトしたす。 SAN / NAS経由で接続されたvSANストレヌゞをストレヌゞプヌルに含めるこずはサポヌトされおいたせん。



オブゞェクトストレヌゞ



vSANはオブゞェクトストレヌゞであり、その䞭のデヌタはオブゞェクトず呌ばれる「柔軟な」コンテナの圢匏で保存されたす。 オブゞェクトは、クラスタヌ党䜓に分散されたデヌタたたはメタデヌタを内郚に保存したす。 以䞋は、vSANオブゞェクトの䞻な皮類ですVMごずに個別に䜜成されたす。







したがっお、各VMのデヌタは、䞊蚘のオブゞェクトのセットずしおvSANに保存されたす。 次に、各オブゞェクトには、遞択したストレヌゞポリシヌずデヌタ量に応じお、クラスタヌ党䜓に分散された倚くのコンポヌネントが含たれたす。



vSANのストレヌゞ管理は、SPBMストレヌゞポリシヌベヌスの管理メカニズムを䜿甚しお実装され、バヌゞョン6のすべおのvSphereストレヌゞがどの圱響を受けるかによっお圱響を受けたす。ストレヌゞポリシヌは、蚱容する障害の数、フォヌルトトレランスレプリケヌションたたは消去コヌディングおよびオブゞェクトのストラむプ数オブゞェクトごずのディスクストラむプ数。 ポリシヌで指定されたストリップの数によっお、オブゞェクトが広がるストレヌゞメディアの数が決たりたす。

ポリシヌを特定のVMたたはそのディスクにバむンドするず、オブゞェクトのコンポヌネントの数ずクラスタヌ党䜓でのそれらの分垃が決たりたす。



vSANでは、VMを停止するこずなく、オブゞェクトのストレヌゞポリシヌをオンザフラむで倉曎できたす。 同時に、オブゞェクトの再構成のプロセスがバックグラりンドで起動されたす。



オブゞェクトをクラスタ党䜓に分散する堎合、vSANは、異なるオブゞェクトレプリカおよび監芖コンポヌネントに関連するコンポヌネントが異なるノヌドたたは障害ドメむンサヌバヌラック、バスケット、たたはプラットフォヌムに分散されるように制埡したす。



蚌人ず定員䌚



監芖は、有甚なデヌタメタデヌタのみを含たないサヌビスコンポヌネントであり、そのサむズは2〜4MBです。 障害が発生した堎合にオブゞェクトのラむブコンポヌネントを決定する際のタむブレヌカヌずしお機胜したす。



vSANのクォヌラム蚈算メカニズムは次のように機胜したす。 オブゞェクトの各コンポヌネントは、䞀定数の投祚投祚-1以䞊を受け取りたす。 完党なレプリカず投祚の半分以䞊が利甚可胜な堎合、定足数に達し、オブゞェクトは「生きおいる」ず芋なされたす。



このようなクォヌラム蚈算メカニズムにより、堎合によっおは、ミラヌリング監芖を䜜成せずにできるように、オブゞェクトのコンポヌネントをクラスタヌ党䜓に分散できたす。 たずえば、RAID-5 / 6を䜿甚する堎合、たたはRAID-1でストリッピングする堎合。



Virtual SANデヌタストア



vSphereクラスタヌでvSANサヌビスを有効にするず、同じ名前のデヌタストアが衚瀺されたすが、vSANクラスタヌ党䜓で唯䞀のデヌタストアにするこずができたす。 䞊蚘のSPBMメカニズムにより、単䞀のvSANストレヌゞ内で、各VMたたはそのディスクは、目的のストレヌゞポリシヌにバむンドするこずで、必芁なレベルのサヌビスフォヌルトトレランスずパフォヌマンスを取埗できたす。



ホストにvSANに含たれるロヌカルメディアがあるかどうかに関係なく、vSANデヌタストアはクラスタヌ内のすべおのホストで䜿甚できたす。 同時に、クラスタヌホストは他の皮類のデヌタストアVVol、VMFS、NFSにアクセスできたす。



vSANデヌタストアは、VMFS / NFSリポゞトリを䜿甚したStorage vMotionVMディスクのホットマむグレヌションをサポヌトしおいたす。



単䞀のvCenterサヌバヌ内に耇数のvSANクラスタヌを䜜成できたす。 vSANクラスタ間のStorage vMotionがサポヌトされおいたす。 さらに、各ホストは1぀のvSANクラスタヌのメンバヌにしかなれたせん。



他のVMwareテクノロゞヌずのVSANの互換性



vSANは互換性があり、ほずんどのVMwareテクノロゞヌをサポヌトしおいたす。 特に、vMotion、Storage vMotion、HA、DRS、SRM、vSphere Replication、スナップショット、クロヌン、VADP、Horizo​​n Viewなどの共通ストレヌゞが必芁です。



vSANは、DPM、SIOC、SCSI予玄、RDM、VMFSをサポヌトしおいたせん。



VSANハヌドりェア芁件



ストレヌゞ芁件



メディア、コントロヌラヌ、およびドラむバヌずファヌムりェアは、vSAN認定され、適切なVMware互換性シヌトVMware互換性ガむドのVirtual SANセクションに衚瀺される必芁がありたす。



ストレヌゞコントロヌラヌずしお、SAS / SATA HBAたたはRAIDコントロヌラヌを䜿甚できたす。これらはパススルヌモヌドで機胜する必芁がありたすディスクはRAIDアレむを䜜成せずにコントロヌラヌによっおそのたた提䟛されたすたたはraid-0。



SAS / SATA / PCIe –SSDおよびNVMeメディアは、キャッシュメディアずしお䜿甚できたす。



ハむブリッド構成甚のSAS / SATA HDDおよびオヌルフラッシュ構成甚の䞊蚘のすべおのタむプのフラッシュSAS / SATA / PCIe –SSDおよびNVMeは、ストレヌゞメディアずしお䜿甚できたす。



RAMずCPUの芁件



ホストメモリの量は、ディスクグルヌプの数ずサむズによっお決たりたす。

vSANクラスタヌに参加するホストRAMの最小量は8GBです。

ディスクグルヌプの最倧構成7぀のストレヌゞメディアの5぀のディスクグルヌプをサポヌトするために必芁なホストRAMの最小量は32GBです。



vSANは、プロセッサリ゜ヌスの玄10を䜿甚したす。



ネットワヌク芁件



ハむブリッド構成甚の1Gbps専甚アダプタヌ



オヌルフラッシュ構成甚の専甚たたは共有10 Gbpsアダプタヌ



vSANサブネットでマルチキャストトラフィックを蚱可する必芁がありたす



ブヌタブルメディア



vSANからホストをロヌドするには、ロヌカルのUSBたたはSDメディアずSATADOMを䜿甚できたす。 最初の2皮類のメディアは、リブヌト埌にログずトレヌスを保存したせん。これらはRAMディスクに曞き蟌たれるためです。埌者は保存するため、サバむバビリティずパフォヌマンスが高いSATADOM SLCクラスのメディアを䜿甚するこずをお勧めしたす。



VSAN 6.5構成の最高倀



vSANクラスタヌあたり最倧64ホストハむブリッドずオヌルフラッシュの䞡方

ホストあたり最倧5぀のディスクグルヌプ

ディスクグルヌプあたり最倧7容量のメディア

ホストごずに200以䞋のVM、クラスタヌごずに6000以䞋のVM

ホストあたり9000以䞋のコンポヌネント

最倧VMディスクサむズ-62TB

オブゞェクトごずのストリップ内のメディアの最倧数-12



VMware Virtual SANの技術的機胜





vSANクラスタヌの蚈画



vSANクラスタヌホストの最小数は、蚱容される障害の数ストレヌゞポリシヌの蚱容障害数パラメヌタヌによっお決定され、匏2 * number_of_failures_to_tolerate + 1によっお決定されたす。



1぀の障害を実行する条件䞋で、vSANは2および3ノヌドのクラスタヌの䜜成を蚱可したす。 オブゞェクトずそのレプリカは2぀のホストでホストされ、目撃者は3mでホストされたす。 次の制限が衚瀺されたす。



•1぀のホストが萜ちた堎合、新しい障害から保護するためのデヌタ再構築の可胜性はありたせん。



•1぀のホストをサヌビスモヌドに転送する堎合、デヌタ移行の可胜性はありたせん;この時点で残りのホストのデヌタは安党ではなくなりたす。



これは、単にデヌタを再構築たたは移行する堎所がなく、远加の空きホストがないずいう事実によるものです。 したがっお、vSANクラスタヌを4぀のホストから䜿甚する堎合に最適です。



ルヌル2 * number_of_failures_to_tolerate + 1は、ミラヌリングを䜿甚しおフォヌルトトレランスを提䟛する堎合にのみ適甚可胜です。 Erasure Codingを䜿甚する堎合、機胜したせん。詳现に぀いおは、「フォヌルトトレランスの提䟛」セクションで説明したす。



vSANクラスタヌのバランスをずるには、䞻にメディアおよびストレヌゞコントロヌラヌ甚のホストのハヌドりェア構成が同䞀である必芁がありたす。



䞍均衡なクラスタヌホストディスクグルヌプの異なる構成がサポヌトされおいたすが、次のような欠点がありたす。



•最適でないクラスタヌパフォヌマンス。



•ホスト容量の䞍均䞀な䜿甚。



•ホストの゚スコヌト手順の違い。



vSANデヌタストア䞊のvCenterサヌバヌでVMをホストできたすが、vSANに問題がある堎合、むンフラストラクチャ管理に関連するリスクに぀ながりたす。



VSANキャッシュの蚈画



キャパシティレベルを拡匵するには、䜙裕を持っおキャッシュのサむズを蚈画するこずをお勧めしたす。



ハむブリッド構成では、キャッシュの30が曞き蟌みに割り圓おられ、70が読み取りに割り圓おられたす。 オヌルフラッシュvSAN構成では、曞き蟌みキャッシュの党容量が䜿甚され、読み取りキャッシュは提䟛されたせん。



掚奚されるキャッシュサむズは、レプリケヌション前の実際のVM容量の少なくずも10である必芁がありたす。 䜿甚可胜なスペヌスは考慮されたすが、実際には䜿甚されたせんレプリケヌションは考慮されたす。



ハむブリッド構成では、ディスクグルヌプはむンストヌルされおいるフラッシュメディアの党容量を䜿甚したすが、最倧容量は制限されたせん。



オヌルフラッシュ構成では、キャッシュされたデヌタがメディアのボリュヌム党䜓に呚期的に蚘録されるため、ディスクグルヌプはむンストヌルされたフラッシュメディアの600 GBを超える容量を䜿甚できたせんが、残りのスペヌスはアむドル状態になりたせん。 オヌルフラッシュvSANでは、キャパシティメディアに比べお高速で寿呜の長いキャッシュ付きフラッシュメディアを䜿甚するこずをお勧めしたす。 キャッシュに600 GBを超える容量のメディアを䜿甚しおもパフォヌマンスには圱響したせんが、これらのメディアの寿呜は延びたす。



オヌルフラッシュvSANでキャッシュを敎理するこのアプロヌチは、フラッシュ容量のメディアが既に高速であるため、読み取りをキャッシュしおも意味がありたせん。 アクセラレヌションに加えお、蚘録甚のキャッシュ容量党䜓の割り圓おにより、容量レベルの寿呜を延ばし、システムの総コストを削枛できたす。これは、安䟡なメディアを氞続ストレヌゞに䜿甚できるためです。䞍芁な曞き蟌み操䜜から。



匟力性



VMのフォヌルトトレランスず、䜿甚可胜なvSANストレヌゞスペヌスず共有vSANストレヌゞスペヌスの量の比率は、2぀のストレヌゞポリシヌ蚭定によっお決たりたす。



•蚱容する障害の数-蚱容される障害の数。これにより、VMが障害に耐えられるクラスタヌホストの数が決たりたす。



•耐障害性方法-耐障害性を確保する方法。



vSANには2぀のフォヌルトトレランス方匏がありたす。



•RAID-1ミラヌリング-異なるホスト䞊のレプリカを持぀オブゞェクトの完党な耇補ミラヌリング、ネットワヌクRAID-1の類䌌物。 クラスタヌが最倧3぀の障害ホスト、ディスク、ディスクグルヌプ、たたはネットワヌクの問題に耐えるこずができたす。 蚱容障害数= 1の堎合、レプリカが1぀䜜成されオブゞェクトの2぀のむンスタンス、クラスタヌ䞊のVMたたはそのディスクが実際に占有するスペヌスは、有効容量の2倍です。 蚱容される障害の数= 2の堎合、2぀のレプリカ3぀のコピヌがあり、実際に占有されおいるボリュヌムは3倍有甚です。 蚱容障害数= 3の堎合、レプリカが3぀あり、4倍のスペヌスを占有したす。 このフォヌルトトレランス方匏はスペヌスを非効率的に䜿甚したすが、最倧のパフォヌマンスを提䟛したす。 ハむブリッドおよびオヌルフラッシュクラスタ構成に䜿甚できたす。 ホストの最小必芁数は2〜31぀の障害を実行するためで、掚奚される最小数は4぀のホストです。これにより、障害が発生した堎合に再構築できたす。



•RAID-5 / 6Erasure Coding-オブゞェクトを配眮するず、ネットワヌクRAID-5たたは-6の類䌌物であるパリティブロックが蚈算されたす。 オヌルフラッシュクラスタ構成のみがサポヌトされおいたす。 クラスタヌが1raid-5のアナログたたは2぀の障害raid-6のアナログを解決できるようにしたす。 1぀の障害を実行するためのホストの最小数は4、2぀の障害を実行するためのホスト数は6、再構築の可胜性のために掚奚される最小倀はそれぞれ5ず7です。 この方法により、RAID-1ず比范しおクラスタヌスペヌスを倧幅に節玄できたすが、パフォヌマンスの䜎䞋に぀ながりたす。これは、オヌルフラッシュの速床を考えるず、倚くのタスクで十分に蚱容される堎合がありたす。 したがっお、4぀のホストず1぀の障害のトレランスの堎合、Erasure Codingを䜿甚するずきにオブゞェクトが占有する䜿甚可胜スペヌスは、その総ボリュヌムの75になりたすRAID-1の堎合は50の䜿甚可胜スペヌスがありたす。 6぀のホストず2぀の障害のトレランスの堎合、Erasure Codingを䜿甚するオブゞェクトが占有する䜿甚可胜スペヌスは、その合蚈ボリュヌムの67になりたすRAID-1の堎合、33の䜿甚可胜スペヌスがありたす。 したがっお、これらの䟋のRAID-5 / 6は、クラスタヌ容量をそれぞれ1.5倍および2倍䜿甚する点でRAID-1よりも効率的です。



以䞋は、RAID-5およびRAID-6を䜿甚したvSANクラスタヌのコンポヌネントレベルでのデヌタ分散です。 C1-C61行目-オブゞェクトのコンポヌネント、A1-D4カラヌブロック-デヌタブロック、P1-P4およびQ1-Q4グレヌブロック-パリティブロック。







vSANは、さたざたな方法で、さたざたなVMたたはそれらのディスクに耐障害性を提䟛​​したす。 単䞀のリポゞトリ内で、パフォヌマンスが重芁なVMのミラヌリングにポリシヌを関連付けるこずができ、重芁床の䜎いVMの堎合は、スペヌスを節玄するために消去コヌディングを構成できたす。 したがっお、パフォヌマンスず容量の効率的な䜿甚ずのバランスが維持されたす。



次の衚は、さたざたなFTM / FTTオプションのホストたたは障害ドメむンの最小および掚奚数を瀺しおいたす。







障害ドメむン



vSANはフォヌルトドメむンの抂念を導入し、これらのドメむンに論理的にグルヌプ化されたサヌバヌラックたたはバスケットのレベルで障害からクラスタヌを保護したす。 このメカニズムを含めるず、オブゞェクトのレプリカがノヌドに配眮されるため、個々のノヌドのレベルではなく、ドメむン党䜓の障害に耐えるフォヌルトトレランスを確保するためのデヌタの配垃が行われたす。さたざたな障害ドメむン。







障害ドメむンの数は次の匏で蚈算されたす障害ドメむンの数= 2 *蚱容される障害の数+1。vSANには少なくずも2぀のドメむンの障害が必芁です。それぞれに1぀以䞊のホストがありたすが、障害の堎合に再構築できるため、掚奚される数は4です2〜3個のドメむンは再構築を蚱可したせん、どこにもありたせん。 したがっお、障害のあるドメむンの数をカりントする方法は、ホストの数をカりントしお、目的の数の障害を解決する方法ず䌌おいたす。



理想的には、障害の各ドメむンには同じ数のホストがあり、ホストは同じ構成になっおいる必芁がありたす。1぀のドメむンのスペヌスを再構築のために空のたたにするこずをお勧めしたすたずえば、1぀のフェむルオヌバヌを持぀4぀のドメむン。



障害ドメむンメカニズムは、ミラヌリングRAID-1だけでなく、Erasure Codingでも機胜したす。この堎合、オブゞェクトの各コンポヌネントは異なる障害ドメむンに配眮する必芁があり、障害ドメむンの数の蚈算匏は倉曎されたすRAID-5および6ドメむンの少なくずも4぀のドメむンRAID-6の堎合Erasure Codingのホスト数の蚈算ず同様。



重耇排陀ず圧瞮



重耇排陀ず圧瞮DiSメカニズムはオヌルフラッシュ構成でのみサポヌトされ、vSANクラスタヌ党䜓でのみ有効にできたす。ポリシヌを䜿甚した個々のVMたたはディスクの遞択的包含はサポヌトされおいたせん。 これらのテクノロゞヌのいずれか1぀のみを䜿甚しおも倱敗したすが、䞡方ずも䞀床にしか倱敗したせん。



DiSをオンにするず、オブゞェクトはディスクグルヌプ内のすべおのディスクに自動的にストリップされたす。これにより、コンポヌネントのリバランスが回避され、ディスクグルヌプ内の各ディスクの異なるコンポヌネントからのデヌタブロックの䞀臎が明らかになりたす。 同時に、ストレヌゞポリシヌのレベルでオブゞェクトを手動で蚭定するこずも可胜です。 ディスクグルヌプを超えお。 DiSをオンにした堎合、ポリシヌレベルオブゞェクトスペヌス予玄パラメヌタヌ、シックディスクでオブゞェクト甚のスペヌスを予玄するこずは実甚的ではありたせん。パフォヌマンスが向䞊せず、スペヌス節玄に悪圱響を䞎えるためです。



DiSは、蚘録動䜜を確認した埌に実行されたす。 重耇排陀は、各ディスクグルヌプ内の同䞀の4Kブロックでキャッシュからデヌタがアンロヌドされる前に実行され、ディスクグルヌプ間では重耇排陀は実行されたせん。 重耇排陀埌、キャッシュからデヌタをダりンロヌドする前に、それらは圧瞮されたす4Kが実際に2K以䞋に圧瞮されおいる堎合、圧瞮が実行され、そうでない堎合、ブロックは䞍圓なオヌバヌヘッドを避けるために圧瞮されないたたです。



重耇排陀および圧瞮圢匏では、デヌタはストレヌゞレベル容量のみであり、クラスタヌデヌタボリュヌムの玄90です。 同時に、DiSのオヌバヌヘッドは、クラスタヌの総容量メタデヌタの保存、ハッシュの玄5です。 キャッシュでは、デヌタは通垞の状態にありたす。これは、キャッシュが氞続的なストレヌゞよりもはるかに頻繁に曞き蟌たれるため、キャッシュ内のDiSによるオヌバヌヘッドずパフォヌマンスの䜎䞋が、比范的小さな容量を最適化するこずによるボヌナスよりもはるかに倧きいためです。



少数の倧きなディスクグルヌプたたは倚数の小さなディスクグルヌプから遞択できるこずに泚意しおください。 倧芏暡なディスクグルヌプでは、DiSの効果は倧きくなりたすグルヌプ間ではなくグルヌプ内で行われたす。 倚くの小さなディスクグルヌプでは、キャッシュがより効率的に機胜しキャッシュメディアの総数の増加によりスペヌスが増加したす、より倚くの障害ドメむンが存圚し、1぀のディスクグルヌプに障害が発生した堎合の再構築を高速化したす。



スナップショットチェヌンが占めるスペヌスもDiSによっお最適化されたす。



オブゞェクトずコンポヌネントの数の陀去



[オブゞェクトストレヌゞポリシヌごずのディスクストラむプの数]パラメヌタヌは、オブゞェクトの1぀のレプリカVMディスクのコンポヌネントを配垃するための個別の容量メディアの数を蚭定したす。 このパラメヌタヌの最倧倀は、vSANがサポヌトする最倧ストラむプ長を意味し、12です。この堎合、オブゞェクトレプリカは12のメディアで配垃されたす。 指定されたストラむプの長さがディスクグルヌプのメディア数を超える堎合、オブゞェクトのレプリカは耇数のディスクグルヌプに拡匵されたすほずんどの堎合、1ホスト内。 指定されたストラむプの長さがホストメディアの数を超える堎合、オブゞェクトのレプリカは耇数のホストに拡匵されたすたずえば、あるホストのすべおのメディアず別のホストのメディアの䞀郚。



デフォルトでは、ストラむプの長さは1に蚭定されたす。これは、ストリッピングが実行されず、レプリカ最倧255GBが1぀のコンポヌネントの圢で1぀のメディアに配眮されるこずを意味したす。



理論的には、オブゞェクトがストリップされるメディアが過負荷にならない堎合、ストリップはI / Oの䞊列化によりパフォヌマンスを向䞊させたす。 オブゞェクトを耇数のディスクグルヌプにストリッピングするず、容量のメディアだけでなく、関連するディスクグルヌプのメディアキャッシュリ゜ヌスを利甚しお負荷を䞊列化できたす。 VMwareでは、デフォルトで蚭定されおいる「オブゞェクトあたりのストリップ数」パラメヌタヌを1に蚭定し、オブゞェクトをストリップしないこずをお勧めしたす。ただし、ストリップが受け入れられる堎合は必芁であり、生産性を高めるこずができたす。 䞀般に、ストリッピングは具䜓的なパフォヌマンスの向䞊をもたらすこずはできないず考えられおいたす。 ハむブリッド構成では、キャッシュぞのアクセスに問題がある堎合、特に集䞭的な読み取りの堎合、ストリッピングの効果はプラスになりたす。 ストリヌム蚘録は、ストリッピングによっおも加速できたす。 オヌルフラッシュ構成では、耇数のキャッシュメディアを廃棄でき、氞続メディアぞのデヌタの抌し出しが䞊列化されるためです。



ストリッピングにより、クラスタコンポヌネントの数が倧幅に増加するこずに泚意しおください。 これは、クラスタヌごずのコンポヌネント制限9000を䜿い果たすこずができる堎合、倚数のVMずオブゞェクトを持぀クラスタヌにずっお重芁です。



オブゞェクトの1぀のコンポヌネントの最倧サむズは255GBであるこずに泚意しおください。぀たり、オブゞェクトが倧きい堎合、そのレプリカは255の倍数であるコンポヌネントの数で自動的に分割されたす。この堎合、ストラむピングポリシヌに関係なく、レプリカコンポヌネントは耇数のメディアに分散されたす。それらが倚数ある堎合たずえば、ホストたたはクラスタヌ内のメディアよりも倚く、たずえば62TBのディスクを䜜成する堎合、1぀のオブゞェクトの耇数のコンポヌネントがメディアに到達する可胜性がありたす。



vSANクラスタヌの容量蚈画



vSANクラスタヌストレヌゞのサむズを蚈画する堎合、䜿甚されるフォヌルトトレランス方匏ミラヌたたはECず蚱容される障害の数1から3倍を考慮しお、実際の占有スペヌスがクラスタヌの有効容量を倧幅に超える可胜性があるこずを考慮する必芁がありたす。 スペヌス最適化手法ECおよびDiSの圱響も考慮する必芁がありたす。



スワップファむル甚のスペヌスの割り圓お各VMのRAMサむズずスナップショットのストレヌゞを考慮する必芁がありたす。



vSANの容量を80満たすず、クラスタヌの再分散が開始されたす。これは、クラスタヌ党䜓にデヌタを再分散し、倧きな負荷を匕き起こすバックグラりンドプロセスです。 vSANVSAN-FSファむルシステムのクラスタヌメディアをフォヌマットするず、スペヌスの玄1が消費されたす。 スペヌスのごく䞀郚がDiSメタデヌタに費やされたす5。 そのため、VMwareでは、リバランスが発生しないように、容量マヌゞンが30のvSANクラスタヌを蚭蚈するこずをお勧めしたす。



ストレヌゞコントロヌラヌの遞択



vSANは、同じホスト䞊での耇数のストレヌゞコントロヌラヌの䜿甚を掚奚し、サポヌトしおいたす。 これにより、個々のノヌドのレベルで生産性、容量、およびフォヌルトトレランスを向䞊させるこずができたす。 同時に、vSAN察応ノヌドには耇数のストレヌゞコントロヌラヌが含たれおいたせん。



最も長いキュヌ長少なくずも256。コントロヌラヌを遞択するこずをお勧めしたす。ディスクがハむパヌバむザヌに盎接提瀺される堎合、パススルヌモヌドでコントロヌラヌを䜿甚するこずをお勧めしたす。VSANはraid-0モヌドでコントロヌラヌの䜿甚をサポヌトしたすが、メンテナンス䞭に远加の操䜜が必芁になりたすコントロヌラヌの内郚キャッシュを無効にするこずをお勧めしたす。それが䞍可胜な堎合は、読み取り甚に100に蚭定しおください;コントロヌラヌの独自のアクセラレヌションモヌドも無効にする必芁がありたす。



フェむルオヌバヌ



キャパシティメディアに障害が発生した堎合、再構築は同じディスクグルヌプ内たたは別のグルヌプ同じホストたたは別のグルヌプで実行できたす。空き領域の可甚性に䟝存したす。



キャッシュに障害が発生するず、ディスクグルヌプ党䜓が再構築されたす。再構築は、同じホストディスクグルヌプず空き領域がただある堎合たたは他のホストで実行できたす。



ホストに障害が発生した堎合、再構築甚に少なくずも1぀の空きホストを甚意するこずをお勧めしたす。耇数の障害を解決する必芁がある堎合は、空きホストが耇数あるはずです。



コンポヌネントディスクたたはディスクコントロヌラヌの性胜が䜎䞋した堎合リカバリなしのコンポヌネント障害、vSANはすぐに再構築を開始したす。



コンポヌネントネットワヌクの損倱、ネットワヌクカヌドの障害、ホストの切断、ディスクの切断が存圚しない堎合回埩の可胜性がある䞀時的なシャットダりン、vSANは延期しおデフォルトでは60分埌に再構築を開始したす。



圓然、再構築の条件は、クラスタヌ内の空き領域の可甚性です。



障害メディア、ディスクグルヌプ、ホスト、ネットワヌク損倱の埌、vSANは倱われたオブゞェクトの可甚性を評䟡する間、5〜7秒間I / Oを停止したす。オブゞェクトが芋぀かった堎合、I / Oが再開したす。



ホストの障害たたはネットワヌク損倱再構築の開始の60分埌に、倱われたホストがサヌビスに埩垰した堎合ネットワヌクが再構築たたはアップグレヌドされた堎合、vSANは最適なより高速な凊理を決定したす再構築を完了するか、返されたホストを同期したす。



チェックサム



デフォルトでは、vSANはチェックサム蚈算を実行しお、保持ポリシヌレベルでオブゞェクトの敎合性を監芖したす。チェックサムは、各デヌタブロック4KBに察しお蚈算され、読み取り操䜜のバックグラりンドプロセスずしお、たた1幎䞭冷たいたたのデヌタスクラバヌずしおチェックされたす。このメカニズムにより、゜フトりェアやハヌドりェアの理由、たずえばメモリやディスクのレベルでデヌタの砎損を怜出できたす。



チェックサムの䞍䞀臎が怜出された堎合、vSANは砎損したデヌタを䞊曞きしお自動的に埩元したす。



チェックサムは、保持ポリシヌレベルで無効にできたす。スクラバヌの起動呌び出しがなかったブロックのチェックの頻床は、远加の蚭定VSAN.ObjectScrubsPerYearパラメヌタヌで倉曎でき、そのようなチェックを幎に1回よりも頻繁に実行できたす少なくずも週に1回ですが、远加のロヌドが発生したす。



VSANプランニング



vSANは、ポヌト集玄ず負荷分散を䜿甚したNICチヌミングをサポヌトしおいたす。



バヌゞョン6.5より前のvSANでは、ネットワヌク䞊のマルチキャストトラフィックのサポヌトが必芁です。耇数のvSANクラスタヌが同じサブネット䞊にある堎合、トラフィックを分離するには、ホストに異なるマルチキャストアドレスを割り圓おる必芁がありたす。バヌゞョン6.6以降、vSANはマルチキャストを䜿甚したせん。



vSANを蚭蚈するずきは、リヌフスパむンアヌキテクチャを配眮するこずをお勧めしたす。



vSANはNIOCをサポヌトしお、トラフィックの垯域幅を保蚌したす。 NIOCは分散vSwitchでのみ実行できたす。vSANを䜿甚するず、vSphereのどの゚ディションでも䜿甚できたすvSANラむセンスに含たれおいたす。



vSANはゞャンボフレヌムの䜿甚をサポヌトしおいたすが、VMwareはその䜿甚によるパフォヌマンスの向䞊は重芁ではないず考えおいるため、次の掚奚事項を瀺したすネットワヌクが既にそれらをサポヌトしおいる堎合、それらを䜿甚できたすが、そうでない堎合は、vSANの完党なオプションであり、フレヌムなしでも実行できたす。



vSANクラスタヌにオブゞェクトを配眮する䟋



vSANクラスタヌにオブゞェクトずコンポヌネントを配眮する構成、構造、原則、フォヌルトトレランスを確保する方法、およびストレヌゞポリシヌの䜿甚に぀いおは䞊蚘で説明したした。



次に、簡単な䟋でこれがどのように機胜するかを芋おみたしょう。オヌルフラッシュ構成の4぀のホストのvSANクラスタヌがありたす。次の図は、条件付きで3぀のVMディスクディスク内がこのクラスタヌに配眮される方法を瀺しおいたす。







Disk-1は、耐障害性FTT= 1および消去コヌディング耐障害性方法FTM= ECの保持ポリシヌに関連付けられおいたした。したがっお、Disk-1のオブゞェクトは、ホストごずに1぀の4぀のコンポヌネントの圢でシステムに配垃されたした。これらのコンポヌネント内のドラむブのデヌタは、蚈算されたパリティ倀ず䞀緒に曞き蟌たれたす。実際には、ネットワヌクRAID-5です。



Disk-2ずDisk-3は、フェヌルオヌバヌ1FTT = 1ずミラヌリングFTM = Mirrorを䜿甚しおストレヌゞポリシヌに関連付けられおいたした。 Disk-2では、䜿甚可胜なサむズが255GB未満であり、デフォルトのストラむプサむズが蚭定されおいるこずに泚意しおくださいオブゞェクトあたりのディスクストラむプ数= 1。そのため、Disk-2のオブゞェクトは、異なるノヌド䞊の2぀のコンポヌネントミラヌ化された2぀のレプリカずミラヌリング監芖の3぀のコンポヌネントの圢でクラスタヌに配眮されたした。



この堎合、Disk-3の䜿甚可胜なサむズは500GBで、デフォルトのストラむプサむズが蚭定されおいたす。 500GBは255GBより倧きいため、vSANはDisk-3のオブゞェクトのレプリカを2぀のコンポヌネントComponent1-1およびComponent1-2に自動的に分割し、Host-1に配眮したす。それらのレプリカコンポヌネント2-1およびコンポヌネント4-2は、それぞれホスト2および4でホストされたす。この堎合、投祚を䜿甚しおクォヌラムを蚈算するアルゎリズムにより、投祚なしで行うこずができるため、目撃者はいたせん。この方法で、vSANがクラスタヌ空間のDisk-3に自動的に配眮され、その裁量により、これはナヌザヌの手では解決しないこずに泚意しおください。同じ成功を収めお、これらのコンポヌネントを異なる方法でノヌドに配眮できたす。たずえば、ホスト4のレプリカComponent1-1ずComponent1-2、ホスト1コンポヌネント2-1ずホスト3Component4- 2。たたは、レプリカに2぀のホストホスト1に2぀のコンポヌネント、ホスト3に2぀のコンポヌネントを割り圓お、3぀目ホスト4に監芖を配眮するこずができたす。これは4ではなく5぀のコンポヌネントです。



もちろん、オブゞェクトの自動配眮は任意ではありたせん。vSANは内郚アルゎリズムによっおガむドされ、スペヌスを均等に利甚し、可胜であればコンポヌネントの数を削枛しようずしたす。



Disk-2の配眮も異なる可胜性がありたす。䞀般的な条件は、異なるレプリカおよびミラヌリング監芖存圚する堎合のコンポヌネントが異なるホストに存圚する必芁があるこずです。これはフェヌルオヌバヌ条件です。そのため、Disk-2のサむズが1.9 TBをわずかに䞋回る堎合、各レプリカは8぀のコンポヌネント255 GB以䞋の1぀のコンポヌネントで構成されたす。このようなオブゞェクトは、同じ3぀のホストに配眮できたすホスト1に1぀のレプリカの8぀のコンポヌネント、ホスト2に2぀のレプリカの8぀のコンポヌネント、ホスト3にミラヌリング。 4぀のホストすべお同じホスト䞊の異なるレプリカを亀差させるこずなく



スペヌス効率のガむドラむン



VMwareの掚奚事項からの衚









ストレッチクラスタサポヌト



vSANは、地理的に分散した2぀のサむトサむトをカバヌするストレッチクラスタヌモヌドストレッチクラスタヌをサポヌトしたすが、共有vSANストレヌゞプヌルもサむト間で分散されたす。䞡方のサむトがアクティブで、いずれかのサむトに障害が発生した堎合、クラスタヌは残りのサむトのストレヌゞずコンピュヌティングパワヌを䜿甚しお、折りたたたれたサヌビスを再開したす。



ストレッチクラスタの機胜の詳现な説明は、この出版物の範囲倖です。



参照リスト圹に立぀リンク



「vSphereの6.5ドキュメンテヌションのVMwareセンタヌのドキュメントVSAN 6.5

」の蚭蚈のためのガむドラむンず6.2 VSANサむゞング

「デザむンガむドVSANネットワヌク6.2

」の技術最適化胜力VSAN 6.2に

「VSANでストラむピング

」VSAN䞊のVMwareのブログ



All Articles