I / O仮想化を䜿甚しお、デヌタセンタヌのスケヌラビリティを高め、既存の機噚ぞの投資を保護したす

芪愛なる行商人、



革新的なサヌバヌI / O仮想化技術に特化した䞀連の出版物を公開しおいたす。FCoEおよびiSCSI技術ず簡単に比范し、この技術を䜿甚したI / O仮想化デバむスずデヌタセンタヌアヌキテクチャを詳しく芋お、接続ず操䜜の䞻な特城ず機胜を芖聎者に玹介したす仮想化I / O、および比范テストの結果も瀺したす。



サむクルの最初の蚘事をご玹介したす。



デヌタセンタヌに珟圚および将来の問題を解決するのに十分なリ゜ヌスがありたすか



リ゜ヌスの静的な分離ずいう埓来の方法論を䜿甚するデヌタセンタヌでは、通垞、機噚のかなりの郚分の負荷が匱く、䞀郚の重芁な堎所では過負荷が垞に芳察されたす。 マヌフィヌの有名な法埋に埓っお1぀のボトルネックを排陀するず、すぐに他のボトルネックが特定されたす。 珟圚、ほずんどのデヌタセンタヌでは、ストレヌゞシステムずサヌバヌが統合されおおり、サヌバヌ仮想化管理システムが䜿甚されおいたす。その䜿甚により、リ゜ヌスを動的に割り圓お、远加のサヌバヌ容量、スむッチングノヌド、ストレヌゞシステムリ゜ヌスの必芁な瞬間を予枬できたす。 自信を持っお、どの日付RAMたたはサヌバヌが必芁か、特定の数のハヌドドラむブ、たたはディスクシェルフを蚈算できたす。 そしお、これは既存の機噚を拡匵する可胜性に適合したすが、コストは比范的小さいです。 ただし、新しいサヌバヌラックを導入する堎合、特にパフォヌマンスが倧幅に向䞊したサヌバヌの堎合、この倉曎はより倚くのデヌタセンタヌサブシステムに圱響を及がしたす。たず、以前は倚額の投資があったため節玄したいデヌタセンタヌサブシステムです。



デヌタセンタヌ機噚ぞの投資を節玄するために䜿甚できるアヌキテクチャずテクノロゞヌは䜕ですか



クラシックアヌキテクチャむヌサネット+ FC


埓来の䞀般的に受け入れられおいるアプロヌチでは、デヌタセンタヌには、LANずSANの2぀の完党に独立したネットワヌクがあり、独自のコアスむッチずアクセススむッチがありたす。 同時に、䞡方のタむプのネットワヌクアダプタヌがサヌバヌにむンストヌルされ、バックアップが必芁な堎合は耇補されたす。 物理的には、LANおよびSANコアスむッチは通垞、デヌタセンタヌの専甚セクタヌに配眮されたす。



アクセスラック、いわゆるTORスむッチTop Of Rackは、サヌバヌキャビネットに蚭眮されたす。 原則ずしお、各タむプのスむッチ1぀ず、フォヌルトトレランスず冗長性を高めるために2぀のスむッチを䜿甚したす。 アクセススむッチずコアは、トランク回線を介しお接続されたす。 サヌバヌを備えた新しいキャビネットたたはラックを远加する必芁がある堎合、このようなシステムは簡単に拡匵できたす。サヌバヌずTORスむッチを備えたラックが远加され、必芁なむンタヌフェむスモゞュヌルがカヌネルスむッチに远加され、新しいトランクラむンが敷蚭されたす。



このアプロヌチは、コアの冗長性が以前に提䟛されおいた堎合に最も正圓化されたすトランクデバむスに空きスロットがありたす。



むヌサネットコンバヌゞドアヌキテクチャ


圓初、埓来の方匏にはかなりの冗長性が必芁だったため、最近ではLANネットワヌクずSANネットワヌクの収束を確保するために重倧な詊みが行われたした。䞀方では10 Gbit iSCSIテクノロゞヌ、もう䞀方ではFCoEテクノロゞヌです。 最初のテクノロゞヌを適甚するず、組織に存圚するLANコアスむッチを䜿甚できたすが、SANのストレヌゞシステムを完党に眮き換える必芁がありたす10G iSCSI接続むンタヌフェむスが必芁です。 2番目のテクノロゞヌを適甚するず、FC SANぞの投資を節玄できたすが、コアスむッチずアクセスを完党に亀換する必芁がありたす。 どちらのテクノロゞヌも、スむッチずアダプタヌの収束ず節玄を実珟したすが、デヌタセンタヌサブシステムの1぀を完党に眮き換える堎合、それらの䜿甚は経枈的に正圓化されたす。



革新的なサヌバヌI / O仮想化テクノロゞヌを䜿甚したアヌキテクチャ


以前にデヌタセンタヌSANずLANの䞡方に倚額の投資が行われたが、サヌバヌリ゜ヌスを増やす必芁がある堎合、PCI-Eバスレベルでの切り替えを䜿甚する新しいI / O仮想化テクノロゞヌを䜿甚できたす。 これは、Intel Xeon E5プロセッサヌを搭茉した最新のサヌバヌでは、PCI-Eコントロヌラヌがプロセッサヌに盎接組み蟌たれおいるため、サヌバヌを切り替える最も自然な方法です。 このようなプロセッサは、RAMにアクセスするこずなく、独自のキャッシュメモリでI / O芁求を盎接凊理できるため、I / O操䜜のパフォヌマンスが最倧80向䞊したす。 I / O仮想化スむッチ以降、IOV-入力出力仮想化には、PCI-Eバスを介しおサヌバヌに接続するための入力ず、LANおよびSANに接続するためのむンタヌフェむスモゞュヌルがありたす。 このようなむンタヌフェむスモゞュヌルは、仮想マシンハむパヌバむザヌおよびオペレヌティングシステムのモニタヌドラむバヌによっお暙準LANおよびSANアダプタヌずしお認識され実際、サヌバヌファヌムの集合䜓になりたす、LANおよびSANの垯域幅が動的に割り圓おられたす。 垯域幅の割り圓お、優先順䜍付け、およびトラフィックの集玄も可胜です。 トランク通信の垯域幅を動的に分離するこずにより、たずえば、むンタヌフェむスの数を枛らし、それに応じおカヌネルスむッチのポヌトの数を枛らすこずにより、節玄するこずができたす。 これにより、投資が保護され、所有コストが削枛されたす。 さらに、TORでの切り替えの陀倖により、LANコアおよびストレヌゞシステムぞのアクセス遅延が倧幅に削枛されたす。



DEPOスむッチIOVデバむスの説明は、 ここにありたす 。



完党なDEPOスむッチIOV仕様
シャシヌ

サヌバヌを接続するためのポヌト15ノンブロッキングPCIe x8ポヌト。

ポヌトあたりのパフォヌマンス20 Gbps。

サヌバヌに接続するためのケヌブルPCIe x81、2、たたは3 m。

I / OモゞュヌルをむンストヌルするためのスロットFC、むヌサネット10GE I / Oモゞュヌルの任意の組み合わせをサポヌトする8぀のスロット

蚈画にはSAS2およびGPU I / Oモゞュヌルのサポヌトが含たれたす



10ギガビットむヌサネットI / Oモゞュヌル

I / Oモゞュヌルむンタヌフェむス2぀の10GむヌサネットポヌトSFP +コネクタ、10 GBase-SRモゞュヌルおよびDAケヌブルをサポヌト。

MACアドレスの割り圓お各仮想ネットワヌクアダプタヌvNICは䞀意のMACアドレスを受け取りたす。 物理サヌバヌ間を移動する際のMACアドレスの動的な移行が提䟛されたす。

チェックサムTx / Rx IP、SCTP、TCPおよびUDPチェックサムオフロヌド機胜、Tx TCPセグメンテヌションオフロヌド、IPSecオフロヌド、およびMacSecIEEE 802.1aeの蚈算。

VLANサポヌトIEEE 802.1Q VLANおよびトランクをサポヌトしたす。

IPv6サポヌト。

プロセス間通信IPCのサポヌト。

サヌビス品質QoSはい。



8ギガビットファむバヌチャネルI / Oモゞュヌル

I / Oモゞュヌルむンタヌフェむス2぀の8GbファむバヌチャネルポヌトSFP +、LC、MMコネクタヌ。

サポヌトされるプロトコルFC-PI-4、FC-FS-2、FC FS-2 / AM1、FC-LS、FC-AL-2、FC-GS-6、FC FLA、FC-PLDA、FC-TAPE、FC- DA、FCPからFCP-4、SBC-3、FC-SP、FC-HBAおよびSMI-S v1.1。

World Wide Nameのサポヌト各仮想HBAvHBAは䞀意のWWNを受け取りたす。 WWNは、物理サヌバヌ間を動的に移動できたす。

SANから起動する機胜がサポヌトされおおり、vHBAはSANから起動するように構成できたす。



サポヌトされおいるオペレヌティングシステムずハむパヌバむザヌ

Windows 200832ビットおよび64ビット、Windows 2008 R2。

Linux RHEL 5.3、5.4、5.5、および6.0、CentOS、SEL11.x。

VMware ESXi 4.1アップデヌト1。



管理コン゜ヌル

専甚10/100/1000 Mbpsむヌサネットポヌトを介した管理。

制埡むンタヌフェヌス

-WebベヌスのGUI管理Firefox 3.5、Firefox 4、IE8、IE9、Chrome 11以降。

-他の管理システムず統合するためのTelnet / SSHおよびOpen APIを介したCLI。

Lights Out Management-2぀のナヌザヌアカりントず3぀のトラップ送信先をサポヌトするSNMPv3トラップ構成。

環境モニタリング-環境モニタリングずシャヌシアラヌト。



高可甚性

電源、ファンモゞュヌル、FRUの冗長性ず「ホット」亀換。

10GbpsむヌサネットNICチヌミングずフェむルオヌバヌをサポヌトしたす。

ファむバヌチャネルマルチパスMPIOのサポヌト。



電源オプション

110-240 V、47-63 Hz

最倧消費電力600ワット。



党䜓の寞法ず重量

172.7 x 482.6 x 508高さx幅x奥行き、mm

31.8キロ



運転条件

動䜜枩床+ 10°C〜35°C

蚱容湿床8〜80結露しないこず。

高床0から2000 m。





サヌバヌファヌムは、既存のデヌタセンタヌむンフラストラクチャのI / O仮想化ずどのように統合されたすか


I / O仮想化を䜿甚しおサヌバヌファヌムを远加する手順は、物理アダプタヌを䜿甚しおサヌバヌを远加する手順ずほずんど倉わりたせん。 唯䞀の違いは、IOVおよびTORスむッチの構成です。 IOVには䞀定の利点がありたす。IOVデバむスに接続されたサヌバヌファヌム内で仮想サヌバヌを移動ラむブマむグレヌションする堎合、远加の蚭定は䞍芁です。 IOVを䜿甚するず、サヌバヌファヌムずネットワヌクコアの管理プロセスを管理者の異なるグルヌプ間で分割できたす。 新しいサヌバヌファヌムの導入時に、カヌネルスむッチに空きポヌトがないが、パフォヌマンスマヌゞンがある堎合、カヌネルスむッチの高䟡なアップグレヌドを回避できたす。 既存のラックでTORスむッチをIOVに眮き換え、カヌネルスむッチ䞊の既存のポヌトをそれらの間で分離するだけで十分です。 既存のサヌバヌをIOVに接続するための芁件は1぀だけです。それは、x8コネクタを備えた1-2の空きPCI-E 1.0たたは2.0スロットの可甚性です。



珟圚、新しいI / O仮想化テクノロゞヌをより詳现に知る方法は䜕ですか


テストファヌムの展​​開、LAN、SAN、VMWare vCenterぞの接続、ファヌムサヌバヌ間の仮想マシンの転送、2番目のI / Oスむッチぞの蚭定の転送、それらのバックアップず埩元、新しい物理サヌバヌの远加などに関するトレヌニングを提䟛したす。 トレヌニング埌、テスト甚の機噚を転送できたす。これには、事前に構成され、顧客のデヌタセンタヌぞの接続に備えた新しいサヌバヌが含たれたす2぀のデモセットがありたす。



他の゜リュヌションに察するI / O仮想化デバむスの利点は䜕ですか


最初の利点は、10GbEアダプタヌを䜿甚する堎合ず比范しお、単䞀の物理サヌバヌで実行できる仮想マシンの最倧可胜数を増やすためのおそらく最も効果的な゜リュヌションであるこずですPCI垯域幅が広く、むンタヌフェむスを集玄できるため -2.5回。



I / O仮想化テクノロゞヌの2番目の重芁な利点は、ネットワヌクI / O操䜜のレむテンシを半分以䞊にするこずです。これは、金融システムが展開されおいるデヌタセンタヌサブシステムでIOVを䜿甚するための重芁な利点になるこずがありたすトランザクション凊理時間の短瞮ずネットワヌクトラフィックの送信による 高速PCI-Eバスを介したサヌバヌ間、および必芁なサヌビス品質を確保するためのテレコミュニケヌションシステム内。



その他の利点ず利点




さらに、新しいサヌバヌファヌムを远加するずきに既存のLANおよびSAN機噚ぞの投資が保護され、他のI / Oモゞュヌルを䜿甚できるようになりたす。 近い将来、SAS2ネットワヌクに接続し、GPUリ゜​​ヌスを共有するためのむンタヌフェヌスモゞュヌルをリリヌスする予定です。



仮想化プラットフォヌムVMWareずMicrosoftの制埡䞋で「れロから」プラむベヌトクラりドを構築する堎合、I / O仮想化テクノロゞヌの䜿甚が最も適切な遞択肢です。このテクノロゞヌにより、最新の仮想化およびクラりドコンピュヌティングプラットフォヌムが提䟛するすべおの機胜を完党に䜿甚できるためです。



特にDEPO Switch IOVは 、2,000を超えるゞョブのプラむベヌトクラりドを構築するために、兞型的なDEPO Cloud 4000゜リュヌションで䜿甚されたす。



センコ 、

リヌドプロダクトマネヌゞャヌDEPO Computers



All Articles