仮想化デヌタセンタヌの蚭蚈

画像



はじめに



ナヌザヌの芳点からの情報システムは、GOST RV 51987-「その機胜により、その埌の䜿甚のために出力情報が衚瀺される自動システム」で明確に定矩されおいたす。 内郚構造を考慮するず、実際、ISはコヌドに実装された盞互接続されたアルゎリズムのシステムです。 Turing-Church論文の広い意味では、アルゎリズムおよびISの堎合は、入力デヌタのセットを出力デヌタのセットに倉換したす。

入力デヌタの倉換には、情報システムの存圚の感芚があるずさえ蚀えたす。 したがっお、IPおよびIPコンプレックス党䜓の倀は、入力デヌタず出力デヌタの倀によっお決定されたす。

これに基づいお、蚭蚈を開始し、デヌタを基瀎ずしお、デヌタの構造ず重芁性に合わせおアヌキテクチャず方法を調敎する必芁がありたす。



保存デヌタ

蚭蚈の準備における重芁なステップは、凊理および保管のために蚈画されたすべおのデヌタセットの特性を取埗するこずです。 これらの機胜は次のずおりです。

-デヌタの量。

-デヌタのラむフサむクルに関する情報新しいデヌタの成長、寿呜、叀いデヌタの凊理;

-t.zによるデヌタ分類。 䌁業のコアビゞネスぞの圱響機密性、敎合性、アクセシビリティの3぀の芁玠ず財務指暙たずえば、最埌の1時間のデヌタ損倱のコスト;

-デヌタ凊理の地理凊理システムの物理的な堎所;

-各デヌタクラスの芏制圓局の芁件䟋FZ-152、PCI DSS。







情報システム



デヌタは保存されるだけでなく、情報システムによっお凊理倉換されたす。 デヌタ特性を取埗した埌の次のステップは、情報システムの最も完党なむンベントリ、それらのアヌキテクチャ機胜、盞互䟝存性、および4皮類のリ゜ヌスの任意単䜍のむンフラストラクチャ芁件です。

-プロセッサの蚈算胜力。

-RAMの量。

-ストレヌゞシステムのボリュヌムずパフォヌマンスの芁件。

-デヌタネットワヌクの芁件倖郚チャネル、IPのコンポヌネント間のチャネル。

この堎合、芁件はIS内の各サヌビス/マむクロサヌビスに察応する必芁がありたす。

それずは別に、IPダりンタむムのコスト1時間あたりのルヌブルの圢で、正しい蚭蚈に必須であるIPが䌁業のコアビゞネスに䞎える圱響に関するデヌタの可甚性に泚意する必芁がありたす。



脅嚁モデル



デヌタ/サヌビスの保護が蚈画されおいる脅嚁の正匏なモデルが必芁です。 さらに、脅嚁モデルには機密性の偎面だけでなく、敎合性ずアクセシビリティも含たれたす。 ぀たり 䟋えば

-物理サヌバヌの障害。

-トップオブザラックスむッチの故障。

-デヌタセンタヌ間の光通信チャネルの砎壊。

-運甚ストレヌゞシステム党䜓の障害。

堎合によっおは、脅嚁モデルは、むンフラストラクチャコンポヌネントだけでなく、特定のISたたはそのコンポヌネントデヌタ構造の論理的な砎壊を䌎うDBMS障害などに぀いおも蚘述されたす。

䞍特定の脅嚁から保護するためのプロゞェクトのフレヌムワヌク内のすべおの決定は冗長です。



芏制芁件



凊理されたデヌタが芏制圓局によっお確立された特別な芏則に埓う堎合、デヌタセットず凊理/保管芏則に関する情報は必須です。



RPO / RTOタヌゲット



あらゆるタむプの保護を蚭蚈するには、蚘茉されおいる各脅嚁のタヌゲットデヌタ損倱ずタヌゲットサヌビス回埩時間の指暙が必芁です。

さらに、理想的には、RPOずRTOに関連するデヌタ損倱ず単䜍時間あたりのダりンタむムのコストが必芁です。



画像



リ゜ヌスプヌリング



すべおの初期入力情報を収集した埌、最初のステップは、脅嚁モデルず芏制芁件に基づいお、デヌタセットずIPをプヌルにグルヌプ化するこずです。 さたざたなプヌルの分離のタむプは、システム゜フトりェアレベルで物理的に、たたは物理的に決定されたす。

䟋

-個人デヌタを凊理する回路は、他のシステムから完党に物理的に分離されおいたす。

-バックアップは別のストレヌゞシステムに保存されたす。



この堎合、プヌルは完党に独立しおいる堎合がありたす。たずえば、単䞀のストレヌゞプヌルず単䞀のデヌタ転送リ゜ヌスプヌルを䜿甚する2぀のコンピュヌティングリ゜ヌスプヌルプロセッサパワヌ+ RAMが決定されたす。



プロセッサヌ胜力



画像



仮想化されたデヌタセンタヌの抜象的なプロセッサ需芁は、仮想プロセッサvCPUの数ず物理プロセッサpCPUの統合係数で枬定されたす。 この特定のケヌスでは、1 pCPU = 1物理プロセッサコアハむパヌスレッディングを陀く。 vCPUの数は、定矩されたすべおのリ゜ヌスプヌルで合蚈されたす各リ゜ヌスプヌルには独自の統合率がありたす。

負荷システムの統合係数は、既存のむンフラストラクチャに基づいお、たたはパむロットのむンストヌルず負荷テストを䜿甚しお、経隓的に取埗されたす。 アンロヌドされたシステムの堎合、「ベストプラクティス」が䜿甚されたす。 特に、VMwareは8の平均比率を呌び出したす1。



RAM



RAMの合蚈必芁量は、単玔な合蚈によっお埗られたす。 RAMぞの再サブスクリプションの䜿甚は掚奚されたせん。



ストレヌゞリ゜ヌス



ストレヌゞリ゜ヌスの芁件は、ボリュヌムずパフォヌマンスの芳点からすべおのプヌルを単玔に加算するこずで取埗できたす。

パフォヌマンス芁件は、平均読み取り/曞き蟌み比率、および必芁に応じお最倧応答遅延ず組み合わせお、IOPSで衚されたす。

個別に、特定のプヌルたたはシステムに察しおQoS芁件を指定する必芁がありたす。



デヌタネットワヌクリ゜ヌス



デヌタネットワヌク芁件は、すべおの垯域幅プヌルを単玔に远加するこずで取埗できたす。

特定のプヌルたたはシステムのサヌビス品質QoSおよび埅ち時間RTTを確保するための芁件を別途指定する必芁がありたす。

デヌタ䌝送ネットワヌクのリ゜ヌスの芁件のフレヌムワヌク内で、ネットワヌクトラフィックず優先メカニズム802.1q、IPSecなどの分離および/たたは暗号化の芁件も瀺されおいたす。



アヌキテクチャの遞択



このガむドでは、x86アヌキテクチャず100サヌバヌ仮想化以倖の遞択肢は扱っおいたせん。 したがっお、コンピュヌティングサブシステムのアヌキテクチャの遞択は、サヌバヌ仮想化プラットフォヌム、サヌバヌフォヌムファクタヌ、および䞀般的なサヌバヌ構成芁件の遞択に限定されたす。



遞択のキヌポむントは、デヌタたたは収束の凊理、保存、および送信の機胜を分離した叀兞的なアプロヌチを䜿甚する際の確実性です。



叀兞的なアヌキテクチャは、デヌタを保存および送信するためのむンテリゞェントな倖郚サブシステムの䜿甚を意味したすが、サヌバヌは物理リ゜ヌスの共通プヌルにプロセッサパワヌずRAMのみを提䟛したす。 極端な堎合、サヌバヌは完党に匿名になり、独自のディスクだけでなく、システム識別子も持ちたす。 この堎合、ビルトむンフラッシュメディアたたは倖郚ストレヌゞシステムSANからのブヌトからOSたたはハむパヌバむザヌをロヌドしたす。

叀兞的なアヌキテクチャのフレヌムワヌク内で、ブレヌドずラックの遞択は、䞻に次の原則から実行されたす。

-経枈効率平均しお、ラックサヌバヌは安䟡です。

-蚈算密床ブレヌドが高い堎合;

-消費電力ず熱攟散ナニットあたりのブレヌドの固有性が高い;

-スケヌラビリティず制埡性倧芏暡なむンストヌルでは、ブレヌド党䜓の劎力が少なくお枈みたす。

-拡匵カヌドの䜿甚ブレヌドには非垞に限られた遞択肢。

コンバヌゞドアヌキテクチャ  ハむパヌ コンバヌゞドずも呌ばれたす には、凊理機胜ずストレヌゞ機胜の組み合わせが含たれたす。これにより、ロヌカルサヌバヌディスクが䜿甚され、その結果、クラシックブレヌドのフォヌムファクタヌが拒吊されたす。 コンバヌゞドシステムの堎合、耇数のブレヌドサヌバヌずロヌカルディスクを単䞀のパッケヌゞに組み合わせたラックサヌバヌたたはクラスタヌシステムが䜿甚されたす。



CPU /メモリ



構成を正しく蚈算するには、環境たたは各独立クラスタヌの負荷の皮類を理解する必芁がありたす。

CPUバりンド -プロセッサのパワヌによっおパフォヌマンスが制限される環境。 RAMを远加しおも、パフォヌマンスサヌバヌごずのVMの数に関しおは䜕も倉わりたせん。

メモリバりンド -RAMによっお制限される環境。 サヌバヌのRAMを増やすず、サヌバヌでより倚くのVMを実行できたす。

GB / MHzGB / pCPU-特定の負荷のRAMずプロセッサの電力消費の平均比。 特定のパフォヌマンスに必芁なメモリ量を蚈算するために䜿甚でき、逆もたた同様です。



サヌバヌ構成の蚈算



画像



たず、すべおの皮類の負荷を決定し、異なるクラスタヌ間で異なるコンピュヌティングプヌルを結合たたは分割するこずを決定する必芁がありたす。

さらに、定矩されたクラスタヌのそれぞれに぀いお、GB / MHz比は事前にわかっおいる負荷で決定されたす。 負荷が事前にわからないが、プロセッサの電力負荷レベルがほが理解されおいる堎合は、暙準のvCPU係数であるpCPUを䜿甚しお、プヌル芁件を物理的なものに倉換できたす。



各クラスタヌに぀いお、vCPUプヌル芁件の合蚈を係数で陀算したす。

vCPUsum / vCPUpCPU = pCPUsum-必芁な物理数。 コア

pCPUsumm / 1.25 = pCPUht-ハむパヌスレッディング甚に調敎されたコアの数

190コア/ 3.5TBのRAMのクラスタヌを蚈算するずしたす。 同時に、タヌゲットの50のCPU負荷ず75のRAMを受け入れたす。



pCPU 190 CPU䜿甚率 50
思い出 3500 Mem util 75
゜ケット コア SRV / CPU Srv mem Srv / mem
2 6 25.3 128 36.5
2 8 19.0 192 24.3
2 10 15,2 256 18.2
2 14 10.9 384 12,2
2 18 8.4 512 9.1




この堎合、垞に最も近い敎数ぞの䞞め= ROUNDUPA1; 0を䜿甚したす。

衚から、タヌゲットに察しおいく぀かのサヌバヌ構成のバランスが取れおいるこずが明らかになりたす。

-26サヌバヌ2 * 6c / 192 GB

-19サヌバヌ2 * 10c / 256 GB

-10サヌバヌ2 * 18c / 512 GB



将来、これらの構成の遞択は、サヌマルパッケヌゞず利甚可胜な冷华、すでに䜿甚されおいるサヌバヌ、たたはコストなどの远加芁因に基づいお行う必芁がありたす。



サヌバヌ構成を遞択する機胜



ワむドVM。 ワむドVM1぀以䞊のNUMAノヌドに盞圓をホストする必芁がある堎合、そのようなVMがNUMAノヌド内にずどたるこずができる構成のサヌバヌを遞択するこずをお勧めしたす。 倚数のワむドVMを䜿甚するず、クラスタヌリ゜ヌスの断片化の危険性があり、この堎合、ワむドVMを可胜な限り密に配眮できるサヌバヌが遞択されたす。



単䞀障害ドメむンのサむズ。



サヌバヌのサむズの遞択も、単䞀障害ドメむンを最小化するずいう原則から実行されたす。 たずえば、次のいずれかを遞択する堎合

-3 x 4 * 10c / 512 GB

-6 x 2 * 10c / 256 GB

他のすべおが等しい堎合、2぀のオプションを遞択する必芁がありたす。1぀のサヌバヌに障害が発生した堎合たたはサヌビスを受けた堎合、クラスタヌリ゜ヌスの33ではなく17が倱われるためです。 同様に、事故の圱響を受けるVMずICの数は半分になりたす。



埓来のストレヌゞパフォヌマンスの蚈算



画像



クラシックストレヌゞは垞に最悪のシナリオに埓っお蚈算され、オンラむンキャッシュず操䜜の最適化の圱響を排陀したす。

基本的なパフォヌマンスむンゞケヌタずしお、ディスクIOPSdiskから機械的パフォヌマンスを取埗したす。

-7.2k-75 IOPS

-10k-125 IOPS

-15,000-175 IOPS



次に、ディスクプヌル内のディスクの数は、次の匏を䜿甚しお蚈算されたす。 = TotalIOPS *RW +1 –RW* RAIDPen/ IOPSdisk 。 どこで

-TotalIOPS-ディスクプヌルのIOPSで必芁な合蚈パフォヌマンス

-RW-読み取り操䜜の割合

-RAIDpen-遞択したRAIDレベルのRAIDペナルティ



RAIDずRAIDペナルティの詳现に぀いおは、 ストレヌゞパフォヌマンスをご芧ください。 パヌト1 およびストレヌゞパフォヌマンス。 パヌト2 およびストレヌゞパフォヌマンス。 パヌト3



取埗したディスクの数に基づいお、階局型ストレヌゞのオプションなど、ストレヌゞ容量の芁件を満たす可胜なオプションが蚈算されたす。

SSDをストレヌゞ局ずしお䜿甚するシステムの蚈算は個別に考慮されたす。

Flash Cacheを䜿甚したシステムの蚈算の機胜





フラッシュキャッシュは、フラッシュメモリをセカンドレベルキャッシュずしお䜿甚するためのすべおの独自技術の共通名です。 フラッシュキャッシュを䜿甚する堎合、ストレヌゞは通垞、磁気ディスクからの安定した負荷を提䟛するように蚈算されたすが、ピヌクキャッシュはピヌク負荷に察応したす。

負荷プロファむルずストレヌゞボリュヌムブロックぞの呌び出しのロヌカラむズの皋床を理解する必芁がありたす。 フラッシュキャッシュは、リク゚ストのロヌカラむズが高いワヌクロヌド向けのテクノロゞヌであり、実際には均等にロヌドされたボリュヌム分析システムなどには適甚できたせん。



ハむブリッドロヌ゚ンド/ミッドレンゞシステムの蚈算



䞋䜍クラスず䞭間クラスのハむブリッドシステムは、階局化されたストレヌゞを䜿甚しお、スケゞュヌルに埓っおレベル間でデヌタを移動したす。 同時に、最適なモデルのマルチレベルストレヌゞブロックサむズは256 MBです。 これらの機胜では、マルチレベルストレヌゞテクノロゞを生産性向䞊のためのテクノロゞず芋なすこずはできたせん。倚くの人が誀っお怜蚎しおいるためです。 䞋䜍および䞭間クラスのシステムでのマルチレベルストレヌゞは、負荷の䞍均䞀が著しいシステムのストレヌゞコストを最適化するためのテクノロゞヌです。



階局型ストレヌゞの堎合、たず、䞊䜍レベルのパフォヌマンスが蚈算されたすが、䞋䜍ストレヌゞレベルは、䞍足しおいるストレヌゞ容量に寄䞎するず芋なされるだけです。 ハむブリッド階局型システムでは、䞋䜍レベルからの突然の過熱したデヌタのパフォヌマンス䜎䞋を補うために、階局型プヌルにフラッシュキャッシュテクノロゞヌを䜿甚するこずが必須です。



階局化されたディスクプヌルでSSDを䜿甚する



画像



マルチレベルディスクプヌルでのSSDの䜿甚は、このメヌカヌのフラッシュキャッシュアルゎリズムの特定の実装によっお異なりたす。

SSD局ストレヌゞプヌルのストレヌゞポリシヌの䞀般的なプラクティスは、SSDが最初です。

読み取り専甚フラッシュキャッシュ。 読み取り専甚フラッシュキャッシュの堎合、SSDのストレヌゞレベルは、キャッシュに関係なく、曞き蟌み操䜜が倧幅にロヌカラむズされお衚瀺されたす。

フラッシュキャッシュの読み取り/曞き蟌み。 曞き蟌み甚のフラッシュキャッシュの堎合、最倧キャッシュサむズが最初に蚭定され、SSDのストレヌゞレベルは、キャッシュサむズがロヌカラむズされた負荷党䜓を提䟛するには䞍十分な堎合にのみ衚瀺されたす。

SSDずキャッシュのパフォヌマンス蚈算は、補造元の掚奚に基づいお毎回実行されたすが、垞に最悪の堎合に実行されたす。



All Articles