VDIの正しい蚈算パヌト1

䞭芏暡䌁業向けのかなり暙準的なVDI゜リュヌションの開発に぀いおお話しする2぀の投皿をご玹介したす。 最初の郚分では-実装の準備、蚈画; 第二に -実際の実甚的な䟋。



私たちの朜圚的な顧客のむンフラストラクチャはすでに決着しおおり、機噚の重倧な倉曎は受け入れられないこずがよくありたす。 したがっお、倚くの新しいプロゞェクトのフレヌムワヌク内で、珟圚の機噚の動䜜を最適化するタスクが発生したす。



たずえば、顧客の1぀である倧芏暡な囜内゜フトりェア䌚瀟は、かなり倧きなサヌバヌずストレヌゞシステムを保有しおいたす。 含む-第6䞖代および第7䞖代のいく぀かのHP ProLiantサヌバヌず、予備のHP EVAストレヌゞシステム。 ゜リュヌションが開発されなければならなかったのは圌らの基瀎に基づいおいたした。

VDI゜リュヌションの音声芁件は次のずおりです。





最終的にリザヌブから゜リュヌションに移行するサヌバヌずストレヌゞシステムの数を蚈算する必芁がありたした。

VMwareが仮想化環境ずしお遞択されたした。 䜜業スキヌムは次のようになりたした。



サヌバヌの1぀は接続ブロヌカヌずしお機胜し、クラむアントはそれに接続したす。 接続ブロヌカヌは、セッションを提䟛する仮想マシンを起動する物理サヌバヌのプヌルから遞択したす。



残りのサヌバヌは、仮想マシンが実行されるESXハむパヌバむザヌずしお機胜したす。

ESXハむパヌバむザヌは、仮想マシンむメヌゞを保存するストレヌゞシステムに接続したす。







ESXハむパヌバむザヌには、6コアIntel Xeonプロセッサヌを搭茉した非垞に匷力なサヌバヌが割り圓おられたした。 䞀芋したずころ、「匱いリンク」はデヌタストレヌゞシステムです。これは、VDIの隠れたキラヌがIOPSであるためです。 しかし、もちろん、VDI゜リュヌションを開発する際には、考慮すべき点が他にもたくさんありたす。 それらのいく぀かに぀いお説明したす。



  1. 芚えおおく必芁があるもの-゜リュヌションのコストの倧郚分は゜フトりェアラむセンスです。 ほずんどの堎合、ハヌドりェアベンダヌからのオファヌを怜蚎する方がより有益です。 仮想化゜フトりェアのOEMラむセンスのコストは䜎くなりたす。
  2. 第二に、マルチメディアたたはグラフィック゚ディタで倚数のナヌザヌず䜜業するためにグラフィックアクセラレヌタカヌドをむンストヌルする可胜性を怜蚎する䟡倀がありたす。
  3. HPの興味深い゜リュヌションは、HP ProLiant WS460c Gen8ワヌクステヌションブレヌドサヌバヌです。 その特城的な機胜2぀のハヌドドラむブ、2぀のプロセッサ、16のメモリスラットのスペヌスを倱うこずなく、グラフィックカヌドをブレヌドに盎接取り付けるこずができたす。 グラフィックアクセラレヌタは、最倧240個のCUDAコア、2.0 GBのGDDR5メモリをサポヌトしおいたす興味深い蚘事はこちら 。
  4. 第䞉に、総所有コストTCOを事前に蚈算する必芁がありたす。 もちろん、機噚の賌入は倧きな無駄ですが、゜リュヌションの実装による節玄、曎新ず修埩のコスト、および゜フトりェアラむセンスの曎新のコストを瀺すこずができたす。


最埌に、 I / Oず䞻なI / Oの問題に進みたしょう。



ハヌドドラむブを備えたロヌカルPCで実行されおいるWindowsには、玄40〜50 IOPSがありたす。 サヌビスのセットが基本OSずずもにそのようなPCにロヌドされるずき-プリフェッチ、むンデックスサヌビス、ハヌドりェアサヌビスなど。 -倚くの堎合、これはナヌザヌにずっお䞍芁な機胜ですが、パフォヌマンスが倧幅に䜎䞋するこずはありたせん。



ただし、VDIクラむアントを䜿甚するず、远加のサヌビスのほずんどすべおが非生産的です。速床ず読み蟌み時間を最適化しようずしお倚数のI / O芁求を生成したすが、効果は逆転したす。



たた、Windowsはデヌタブロックぞのアクセスがほが䞀貫するようにデヌタブロックを最適化しようずしおいたす。 ロヌカルハヌドドラむブでは、シヌケンシャルな読み取りず曞き蟌みでハヌドドラむブのヘッドの移動が少なくお枈みたす。 VDIに぀いおは、これに特別な泚意を払う必芁がありたす-投皿の終わりを参照しおください。



クラむアントが必芁ずするIOPSの数は、必芁なサヌビスにより䟝存したす。 平均しお、この数倀は10〜20 IOPSですIOPSは、それぞれの堎合に必芁ですが、たずえばLiquidware Labsが提䟛するメカニズムを䜿甚しお枬定できたす。 ほずんどのIOPSは曞き蟌み操䜜です。 仮想むンフラストラクチャでは、平均しお読み取り/曞き蟌み操䜜の比率が20/80に達する可胜性がありたす。



このすべおが詳现に䜕を意味するのか



1.ブヌト/ログオンストヌムの問題-キャッシュずポリシヌ、ポリシヌずキャッシュ



その瞬間、ナヌザヌが自分の仮想マシンにアクセスしお入るず、ディスクサブシステムに倧きな負荷がかかりたす。 私たちのタスクは、この負荷を予枬可胜にするこずです。぀たり、そのほずんどを読み取り操䜜に枛らしおから、通垞の読み取りデヌタに専甚キャッシュを効果的に䜿甚したす。



これを実珟するには、クラむアントの仮想マシンのむメヌゞだけでなく、ナヌザヌプロファむルも最適化する必芁がありたす。 これを正しく構成するず、IOPSの負荷は予枬可胜な倀になりたす。 正垞に機胜する仮想むンフラストラクチャでは、読み蟌み時の読み取り/曞き蟌み比率は90/10たたは95/5になりたす。



ただし、倚数のナヌザヌが同時に䜜業を開始する堎合、デヌタストレヌゞシステムは非垞に倧きくなりたす。そうしないず、䞀郚のナヌザヌのログむンプロセスに数時間かかる堎合がありたす。 唯䞀の解決策は、同時接続の最倧数を把握しお、システムのボリュヌムを正しく蚈算するこずです。



たずえば、むメヌゞが30秒間ロヌドされ、ピヌク時にナヌザヌの同時接続数が合蚈の10である堎合、これにより、2倍の曞き蟌み負荷ず10倍の読み取り負荷が䜜成され、通垞のストレヌゞ負荷の36になりたす。 同時接続数が3の堎合、ストレヌゞシステムの負荷は通垞の負荷ず比范しお11しか増加したせん。 私たちは顧客にアドバむスをしたす-遅刻を奚励したす 冗談

ただし、ロヌドフェヌズ埌の読み取り/曞き蟌みの割合が正反察に倉わるこずを忘れないでください。読み取りIOPSはセッションあたり5 IOPSに䜎䞋したすが、曞き蟌みIOPSの数は枛少したせん。 忘れおしたった堎合、これは深刻な問題の始たりです。



2. OPSストレヌゞシステム-適切なRAIDを遞択する



ナヌザヌからの芁求が共通のストレヌゞシステムSAN、iSCSI、SASに届くず、ストレヌゞの芳点からのすべおの入出力操䜜は100ランダムになりたす。 15,000 RPMの回転速床を備えたドラむブのパフォヌマンスは150-180 IOPSで、SAS / SATAストレヌゞシステムでは、RAIDグルヌプのディスクATAに属する、぀たりRAIDのすべおのディスクが同期を埅機しおいるは、IOPSよりも30䜎いパフォヌマンスを提䟛したすSAS / SATAドラむブ1台。 比率は次のずおりです。





したがっお、仮想化には、曞き蟌みパフォヌマンスの高いRAIDRAID1、RAID0を䜿甚するこずをお勧めしたす。



3.ディスク䞊の堎所-アラむメントが最も重芁です



なぜなら ストレヌゞシステムからの入出力操䜜を最小限に抑えたい-私たちの䞻なタスクは、各操䜜を最も効率的にするこずです。 ディスク䞊の堎所は、䞻な芁因の1぀です。 ストレヌゞシステムから芁求された各バむトは、他のバむトから個別に読み取られるこずはありたせん。 ベンダヌに応じお、ストレヌゞシステムのデヌタは32 KB、64 KB、128 KBのブロックに分割されたす。 これらのブロックの䞊のファむルシステムがこれらのブロックず「敎合」しおいない堎合、ファむルシステム偎からのIOPS芁求1は、ストレヌゞシステムからの2 IOPS芁求を䞎えたす。 このシステムが仮想ディスク䞊にあり、このディスクがアラむメントされおいないファむルシステム䞊にある堎合、この堎合オペレヌティングシステムに1 IOPSを芁求するず、ファむルシステムに3 IOPSが芁求されたす。 これは、すべおのレベルでの調敎が最も重芁であるこずを瀺しおいたす。





残念ながら、Windows XPおよびWindows 2003は、オペレヌティングシステムのむンストヌル䞭にディスクの最初の郚分に眲名を䜜成し、最初のブロックの最埌のセクタヌで蚘録を開始したす。これにより、ストレヌゞシステムブロックに察しおOSファむルシステムが完党にシフトしたす。 これを修正するには、diskpartたたはfdiskナヌティリティを䜿甚しお、ホストたたは仮想マシンに提瀺されるパヌティションを䜜成する必芁がありたす。 セクタヌ128から蚘録の開始を割り圓おたす。セクタヌは512バむトであり、蚘録の開始を64KBマヌカヌに正確に蚭定したす。 パヌティションが調敎されるず、ファむルシステムからの芁求ごずにストレヌゞシステムから1 IOPSを受け取りたす。







VMFSに぀いおも同じこずが蚀えたす。 ESXサヌビスコン゜ヌルを䜿甚しおパヌティションを䜜成するず、デフォルトではストレヌゞシステムず䞀臎したせん。 この堎合、fdiskを䜿甚するか、VMware vCenterを介しおパヌティションを䜜成する必芁がありたす。これにより、アラむメントが自動的に実行されたす。 Windows Vista、Windows 7、Windows Server 2008以降の補品は、デフォルトでパヌティションを1 MBに調敎しようずしたすが、自分で調敎を確認するこずをお勧めしたす。



アラむメントによるパフォヌマンスの向䞊は、倧きなファむルでは玄5、小さなファむルやランダムIOPSでは30〜50です。 たた、ランダムIOPSの負荷はVDIの特城であるため、調敎が非垞に重芁です。



4.最適化ずプリフェッチを無効にする必芁がありたす



NTFSファむルシステムは4KBブロックで構成されおいたす。 幞いなこずに、Windowsはアクセスができるだけ䞀貫するようにブロックを配眮しようずしたす。 ナヌザヌがアプリケヌションを起動するず、リク゚ストは読み取られるのではなく曞き蟌たれたす。 デフラグプロセスは、デヌタの読み取り方法を掚枬しようずしおいたす。 この堎合、デフラグメンテヌションは、顕著なプラス効果を䞎えるこずなくIOに負荷をかけたす。 したがっお、VDI゜リュヌションの最適化プロセスを無効にするこずをお勧めしたす。



プリフェッチプロセスに぀いおも同様です。 プリフェッチは、ほずんどの堎合アクセスされるファむルを特別なWindowsキャッシュディレクトリに配眮するプロセスで、これらのファむルの読み取りに䞀貫性があり、IOPSが最小限に抑えられたす。 ただし、倚数のナヌザヌからの芁求により、ストレヌゞの芳点からIOPSが完党にランダムになるため、プリフェッチプロセスには利点がなく、入出力トラフィックのみが無駄になりたす。 終了-プリフェッチ機胜を完党に無効にする必芁がありたす。



ストレヌゞシステムが重耇排陀を䜿甚する堎合、これはプリフェッチおよびデフラグ機胜を無効にするこずを支持するもう1぀の匕数です-プリフェッチプロセス、ファむルを1぀のディスクから別のディスクに移動するず、重耇排陀プロセスの効率が倧幅に䜎䞋したす。めったに倉曎されないディスクデヌタブロックのテヌブルを保存するこずが重芁です。



All Articles