NVMe over Fabric、ファイバーチャネルなど

画像 差し迫ったファイバーチャネルの死について、彼らはテープドライブの死について少しだけ言っています。 速度が4 Gbpsに制限されていた場合でも、新しいスタイルのiSCSIはFCに置き換えられました(健全な予算が1 Gbpsだけで、10がすでに近くにある場合でも)。 時間が経ち、10ギガビットイーサネットはあまりにも高価で楽しさを保ち、低遅延を提供できませんでした。 ISCSIはサーバーとディスクシステム間の通信のプロトコルとして使用されていますが、広く普及していますが、FCを完全に置き換えることはできませんでした。



過去数年間、ファイバーチャネルインフラストラクチャは急速に発展し続けており、インターフェイスの速度は向上しており、差し迫った終aboutについて話すのは明らかに時期尚早です。 そして、この(2016)年の春に、Gen 6標準が発表されました。これにより、最大速度が16GFCから32GFCに倍増しました。 従来の生産性の向上に加えて、この技術は他の多くの革新を受けています。



この規格では、4つのFC回線を1つの128GFCチャネルに結合して、高速ISLリンクを介してスイッチを相互に接続できます。 エラー修正(Forward Error Correction、FEC)は、オプションとして第5世代のFC製品ですでに利用可能でしたが、Gen 6ではそのサポートが必須になりました。 このような高速では、エラーの確率が増加するだけでなく(Gen 6のBERは10-6)、フレームの再送が必要なため、パフォーマンスへのエラーの影響もさらに大きくなります。 FECを使用すると、受信側はフレームを再送信するために繰り返し要求する必要なしにエラーを修正できます。 その結果、より均等なデータ転送速度が得られます。 エネルギー効率も無視されませんでした-消費電力を削減するために、銅製ポートは完全に無効にできますが、光ポートは最大60%電力を削減できます。



それでも、FCテクノロジーの強みは低レイテンシ(現在広く使用されている8 Gbps標準よりもさらに70%低くなっています)です。 低遅延と高性能の組み合わせにより、32GFCはオールフラッシュアレイの接続に適したソリューションになります。 将来的には、ストレージネットワークインフラストラクチャへの要求が最も高いNVMeシステムが見られ、32GFCは価値のある場所を獲得するチャンスがすべてあります。



FC Gen 6チップ、アダプター、およびBrocade G620スイッチは、標準自体と一緒に春に発表され、Brocade X6ディレクターファミリーの新しいディレクター(シャーシスイッチ)が発表されたのはそれほど前ではありません。 最大構成(8スロット)では、最大384個の32GFCポート+ 32個の128GFCポートをサポートし、合計帯域幅は16Tビットです。 シャーシに応じて、8個または4個のFC32-48ラインカード(48個の32GFCポート)、またはSX6マルチプロトコルカード(16個の32GFCポート、16個の1 / 10GbEポート、2個の40GbEポート)を取り付けることができます。 SX6ブレードを使用すると、IPネットワークを使用してスイッチを接続できます。 残念ながら、シャーシはアップグレードできず、古き良きDCX-8510を32GFCにアップグレードすることはできませんが、Gen 6標準カードのサポートはX6ラインで宣言されています。



ハードウェア機能だけでなく、制御システムにもかなりの注意が払われます。 IO Insightテクノロジーを備えたBrocade Fabric Visionは、物理サーバーだけでなく、個々の仮想マシンからストレージ上の特定のLUNまでを含むI / Oチャネル全体のプロアクティブな監視を可能にします。 多くの異なるアプリケーションが1つのストレージシステムに統合されている状況では、コンプレックス全体のパフォーマンスの分析は非常に複雑であり、スイッチレベルでメトリックを収集すると、問題の検索が大幅に簡素化されます。 カスタムアラートは、潜在的な問題に迅速に対応し、主要なアプリケーションパフォーマンスの低下を防ぐのに役立ちます。



しかし、もちろん、私たちは単一のファイバーチャネルに住んでいるわけではありません。メラノックスは、BlueFieldチップファミリの今後のリリースを発表しました。 これらは、NVMe over Fabricと統合されたConnecX-5コントローラーをサポートするシステムオンチップ(SoC)です。 このチップは、EDR速度(100Gb / s)までのInfiniband、および10/25/40/50 / 100Gbイーサネットをサポートします。 BlueFieldは、NVMe AllFlashアレイとサーバーでNVMe over Fabricを接続するために使用することを目的としています。 このような特殊なデバイスを使用すると、サーバーの効率を高める機会が得られることが期待されます。これは、HPCにとって非常に重要です。 NVMeストレージのネットワークコントローラーとして使用すると、PCI Expressスイッチと強力なプロセッサーが不要になります。 このような特殊なデバイスは、ソフトウェアで定義されたストレージと一般的なハードウェアの使用のイデオロギーに反していると言う人がいるかもしれません。 ソリューションの価格を下げてパフォーマンスを最適化する機会が得られるので、これが正しいアプローチだと思います。 BlueFieldの最初の配信は2017年初頭に約束されています。



画像






短期的には、NVMeストレージシステムの数は着実に増加します。 PCIエクスプレススイッチを介してサーバーを接続すると、最高速度を提供しますが、多くの欠点があるため、「NVM Express over Fabrics」規格の公開バージョン1.0が間に合いました。 FCまたはRDMAファクトリーをトランスポートとして使用できます。後者は、Infiniband、iWARPまたはRoCEに基づいて物理的に実装できます。



Infinibandを介したRDMAトランスポートは、HPCシステムや、手作りの「自家製」を作る機会がある場合に広く普及します。 このフレーズには否定的なものはありません。ファイバチャネルは長年にわたって企業標準として認識されており、問題が発生する可能性はRDMAを使用する場合よりもはるかに低くなっています。 これは、広範なアプリケーションソフトウェアとの互換性の問題と管理の容易さの両方に関係します。 これらすべてには価格があり、企業市場はこれを注意深く監視しています。



かつて、一部のメーカーは、ストレージネットワークを従来のデータ伝送ネットワークと統合することを可能にしたFCoEテクノロジーの大成功を予測していましたが、実際には、市場を征服することで大きな成功を収めることに成功しませんでした。 今日、RoCE(RDMA over Converged Ethernet)を介したEthernet接続およびNVMe over Fabricデータ転送を備えたNVMeストレージのトピックは非常に活発に開発されています。 ここでの成功は、FCoEを大衆に導入した場合よりも重要になる可能性がありますが、ファイバチャネルデバイスの世代が複数になると確信しています。 そして、「ついにイーサネットしかできない」と言うのは時期尚早です-はい、それはしばしば可能ですが、それが安くなるという事実からはほど遠いです。



現在、FCネットワークが既に展開されている場合、代替ソリューションを導入することはほとんど意味がありません-機器をGen 6またはGen 5標準にアップグレードする方がよい-部分的なアップグレードでも効果が得られます。 利用可能なストレージシステムが最大速度をサポートしていないという事実にもかかわらず、ストレージネットワークを更新すると、多くの場合、レイテンシーを削減し、複合システム全体の統合パフォーマンスを向上させることができます。



トリニティのエンジニアは、サーバーの仮想化、データストレージシステム、ワークステーション、アプリケーション、ネットワークについて喜んでアドバイスします。



人気のあるTrinity Tech Forumにアクセスするか、コンサルテーションをリクエストしてください



他のTrinityの記事は Trinityの ブログハブで見つけることができます 購読する!



All Articles