最新の仮想化機胜

どのハむパヌバむザヌが優れおいるかに぀いおの最近の議論の埌、特定の名前を参照せずに珟代の仮想化システムの機胜を曞き出すずいうアむデアが生たれたした。 これは「誰が優れおいるか」の比范ではなく、「仮想化で䜕ができるか」ずいう質問に察する答えです。産業甚仮想化の可胜性の䞀般的な抂芁です。



コヌド実行



ハむパヌバむザヌは仮想マシンを完党に制埡するため、マシンのプロセスを具䜓的に制埡できたす。



さたざたな仮想化システムは、コヌドを実行するためのいく぀かの方法を提䟛したす完党な゚ミュレヌションは産業甚仮想化では䜿甚されないため、リストには含たれおいたせん。





実際には、準仮想化ドラむバヌはHVMずバむナリ曞き換えゲストツヌルず呌ばれるこずが倚いの䞡方で䜿甚されたす。 準仮想化がパフォヌマンスにおいお他のすべおの方法よりも倧幅に優れおいるのは、I / O操䜜です。



䟋倖なく、すべおのハむパヌバむザヌは仮想マシンでサスペンド/䞀時停止操䜜を実行できたす。 このモヌドでは、ディスクのメモリデヌタの保存ず「回埩」再開埌の䜜業の継続により、マシンの動䜜が䞭断されたす。



䞀般的な機胜は、 移行の抂念です。぀たり、あるコンピュヌタヌから別のコンピュヌタヌぞの仮想マシンの転送です。 シャットダりンせずにオフラむン1台のコンピュヌタヌでオフ、2台目のコンピュヌタヌでオンおよびオンラむン通垞、ラむブず呌ばれる、「ラむブマむグレヌション」が発生したす。 実際には、あるマシンでサスペンドし、デヌタ転送プロセスを最適化しお別のマシンで再開するこずを䜿甚しお実装されたす最初にデヌタが転送され、次にマシンがサスペンドされ、移行が開始された時点から倉曎されたデヌタが転送され、その埌、新しいマシンが新しいホストで開始されたす。



たた、xenaでは、2台以䞊のホストRemusで1台のマシンを䞊列実行する技術が玄束されおいたすそしお、ほずんど補品に導入されおいるようです。これにより、サヌバヌの1぀に障害が発生しおも、䞭断/再起動せずに仮想マシンを継続できたす。



メモリ管理



埓来の仮想化モデルでは、ゲストマシンに䞀定量のメモリを割り圓おるこずを想定しおおり、倉曎はオフになった埌にのみ可胜です。



最新のシステムでは、ゲストシステムのRAM容量を手動たたは自動で倉曎する機胜を実装できたす。



次のメモリ管理方法を䜿甚できたす。





呚蟺機噚



䞀郚のハむパヌバむザヌでは、仮想マシンが実際の機噚さらに、異なる仮想マシン、異なる機噚にアクセスできたす。



たた、コンピュヌタヌ䞊にない機噚を含む機噚を゚ミュレヌトするこずもできたす。 最も重芁なデバむス-ネットワヌクアダプタヌずドラむブは別々に考慮されたす。 その他ビデオアダプタヌ3Dを含む、USB、シリアル/パラレルポヌト、タむマヌ、りォッチドッグ。



これを行うには、次のテクノロゞヌのいずれかを䜿甚したす。





ネットワヌク機噚



ネットワヌクデバむスは通垞、3番目たたは2番目の抜象化レベルで実装されたす。 䜜成された仮想ネットワヌクむンタヌフェむスには、仮想マシンずハむパヌバむザヌ/制埡ドメむン/仮想化プログラムの2぀の端がありたす。 ゲストからのトラフィックは倉曎されずに所有者に送信されたす再送信、䞀臎する速床などのダンスなし。 そしお、かなり重倧な困難が始たりたす。



珟時点では、第3レベルたずえば、openvzなどのIPアドレスレベルでネットワヌクむンタヌフェむスを゚ミュレヌトするシステムを陀いお、他のすべおのシステムは次の機胜セットを提䟛したす。



䞀郚の仮想化システムは、仮想マシンのネットワヌクむンタヌフェヌスを物理ネットワヌクむンタヌフェヌスず仮想スむッチの存圚でブリッゞする堎合を分離したす。



䞀般的に、仮想マシンのネットワヌクは、移行䞭に特定の頭痛の皮を瀺したす。 むンタヌフェむスブリッゞングを備えた既存のすべおの補品システムは、1぀のネットワヌクセグメントでのみマシンの透過的なラむブマむグレヌションを可胜にし、トラフィックスむッチングのポヌト倉曎に぀いお䞊䜍スむッチに通知するための特別なトリック停ARPが必芁です。



珟時点では、かなり興味深いシステムが開発されおいたす-オヌプンフロヌコントロヌラぞのパケットのパスを決定するタスクを可胜にするオヌプンvSwitch-仮想ネットワヌクの機胜を倧幅に拡匵する可胜性がありたす。 ただし、オヌプンフロヌずvSwitchは少し倖れおいたす少し埌で説明したす。



ディスクブロックデバむス



これは、仮想マシンの2番目の重芁なマむルストヌンです。 ハヌドディスクより正確には、情報を保存するためのブロックデバむスは、重芁な仮想化の2番目のコンポヌネントであり、おそらく最初のコンポヌネントです。 ディスクサブシステムのパフォヌマンスは、仮想化システムのパフォヌマンスを評䟡するために重芁です。 プロセッサずメモリの倧きなオヌバヌヘッドオヌバヌヘッドは、ディスク操䜜のオヌバヌヘッドよりも穏やかに経隓されたす。



最新の仮想化システムには、いく぀かのアプロヌチがありたす。 1぀目は、完成したファむルシステムを仮想マシンに提䟛するこずです。 同時にオヌバヌヘッドはれロになる傟向がありたすopenvzに固有。 2番目-ブロックデバむスの゚ミュレヌションスマヌトコマンドやSCSIコマンドなどのryushechekなし。 仮想マシンのブロックデバむスは、物理デバむスディスク、パヌティション、論理ボリュヌムLVMたたはファむルルヌプバックデバむスを介しお、たたはファむルの「内郚」でブロック操䜜を盎接゚ミュレヌトするこずにバむンドされたす。



远加機胜は、ハむパヌバむザヌによるネットワヌクストレヌゞの䜿甚です。この堎合、移行プロセスは非垞に簡単です。1台のホストでマシンを䞀時停止し、2台目のホストを継続したす。 ホスト間でデヌタを転送したせん。



さらに、基本レベルのブロックデバむスがそれをサポヌトしおいればLVM、ファむル、ほずんどのシステムは、倖出先で仮想ブロックデバむスのサむズを倉曎する機胜を提䟛したす。 これは䞀方で非垞に䟿利であり、ゲストOSは他方でこれに察しお完党に準備されおいたせん。 もちろん、すべおのシステムは、オンザフラむブロックデバむス自䜓の远加/削陀をサポヌトしおいたす。



重耇排陀機胜は通垞、基盀ずなるブロックデバむスプロバむダヌに割り圓おられたすが、たずえば、openvzでは「コンテナヌテンプレヌト」を䜿甚するコピヌオンラむトモヌドを䜿甚でき、XCPでは盞互にコピヌオンラむトの䟝存関係を持぀ブロックデバむスのチェヌンを䜜成できたす。 これにより、生産性が䜎䞋する䞀方で、スペヌスを倧幅に節玄できたす。 もちろん、倚くのシステムでは、オンデマンドでディスクスペヌスを割り圓おるこずができたすVMWare、XCPなど-ブロックデバむスに察応するファむルは、スパヌスずしお䜜成されたすたたは、「スキップ」空スペヌスをサポヌトする特定の圢匏を持ちたす。



ディスクぞのアクセスは、速床、あるデバむスたたは仮想マシンに察する他のデバむスの優先床によっお制埡できたす。 VMWareは、I / O操䜜の数を制埡する玠晎らしい機䌚を発衚したした。これにより、すべおのゲストぞのサヌビス提䟛にわずかな遅延が生じ、ゲストの混乱が最も遅くなりたす。



専甚ディスクデバむスは耇数のゲスト間で共有できGFSなど、これに察応したファむルシステムを䜿甚しおいる堎合、共有ストレヌゞを䜿甚しおクラスタヌを簡単に実装できたす。



ハむパヌバむザヌがゲストのメディアぞのアクセスを完党に制埡するため、ディスクのスナップショットおよび仮想マシン自䜓を䜜成し、スナップショットのツリヌを構築するこずが可胜になりたす仮想マシンの状態もこれらのスナップショットに含たれたす車。



同様に、バックアップが実装されたす。 バックアップを実装する最も簡単な方法は、バックアップシステムのディスクをコピヌするこずです。これは通垞のボリュヌム、ファむル、たたはLVパヌティションであり、倖出先も含めお簡単にコピヌできたす。 Windowsの堎合、通垞、バックアップの準備の必芁性をシャドりコピヌに通知する機䌚が䞎えられたす。



ハむパヌバむザヌずゲスト間の盞互䜜甚



䞀郚のシステムでは、ゲストシステムずハむパヌバむザヌより正確には管理OSの間に通信メカニズムが提䟛され、ネットワヌクの操䜜性に関係なく情報を送信できたす。



ゲストシステムの「自己移行」に関する実隓的な開発補品の準備ができおいたせんがありたす。



盞互互換性



ハむパヌバむザヌ間の盞互䜜甚を暙準化する䜜業が進行䞭です。 たずえば、XVA圢匏は、仮想マシンを゚クスポヌト/むンポヌトするためのプラットフォヌムに䟝存しない圢匏ずしお提案されおいたす。 VHD圢匏は、同じ拡匵子を持぀耇数の互換性のない圢匏ではない堎合、ナニバヌサルであるず䞻匵できたす。



ほずんどの仮想化システムは、競合他瀟の仮想マシンを「倉換」する機胜を提䟛したす。 ただし、倖出先で異なるシステム間でマシンを移行できるラむブマむグレヌションの単䞀システムは衚瀺されず、このトピックに関するスケッチも衚瀺されたせんでした。



経理



ほずんどのハむパヌバむザヌは、䜕らかの圢匏のホスト負荷掚定メカニズム珟圚の倀ずこれらの倀の履歎を衚瀺を提䟛したす。 䞀郚は、ティック、iops、メガバむト、ネットワヌクパケットなどの絶察数の圢匏で消費されたリ゜ヌスを正確に説明する機胜を提䟛したす。 私が知る限り、これはXenのみで、文曞化されおいない機胜の圢でのみです。



協䌚ず管理



ほずんどの最新䞖代のシステムでは、負荷管理甚のむンフラストラクチャを提䟛するか、むンフラストラクチャ内の各サヌバヌに既補の負荷管理サヌビスをすぐに提䟛するこずにより、耇数の仮想化マシンを単䞀の構造クラりド、プヌルなどに結合できたす。 これは、最初に「次の車をどこから開始するか」を自動的に遞択するこずによっお、次にホストを均等にロヌドするようにゲストを自動的に移行するこずによっお行われたす。 同時に、共有ネットワヌクストレヌゞを䜿甚する堎合、最も単玔なフォヌルトトレランス高可甚性もサポヌトされたす-倚数の仮想マシンを持぀1぀のホストが停止した堎合、仮想マシンはむンフラストラクチャの䞀郚である他のホストで実行されたす。



いずれかのシステムのいく぀かの重芁な機胜を芋逃した堎合、たずえば、



All Articles