統合インフラストラクチャ「クラウド+物理機器」

この記事では、物理機器とクラウド容量を単一のインフラストラクチャに結合するときに発生する可能性のある問題について説明します。 多くの企業は当初リソースを完全にパブリッククラウドに配置しているため、多くの企業がそのような状況を抱えているわけではありません。 しかし、何らかの理由で、物理サーバーとクラウドサーバーの両方を使用する必要があるプロジェクトがあります。 当然、電力データはネットワークで相互接続する必要があります。 一部の人々はこれらの目的で(直接またはVPNを介して)インターネットを使用しますが、サーバー間のトラフィック量は外部のトラフィックよりもはるかに多いため、これは常に安全で有益ではありません。 これにより、外部チャネルが過負荷になり、その結果、幅広いインターネットチャネルを購入する必要があるため、コストが増加する恐れがあります。





1つのデータセンターの物理サーバーと仮想サーバー間でインターネット経由で接続する場合の一般的なトラフィックルートスキーム。



このような問題を回避するには、内部ネットワークに個別のチャネルを使用することをお勧めします。 物理サーバーが1つのデータセンターにある場合、またはすべてが1つのクラウドにある場合、これは問題ではありません。 容量がクラウドと物理サーバーの両方にある場合、プロジェクトが1つのデータセンターにあるか、複数のデータセンターにあるかに関わらず、問題が発生する可能性があります。 パブリッククラウドが1つのデータセンターにあり、物理機器が別のデータセンターにある場合 さらに複雑です。





異なるデータセンターの物理サーバーと仮想サーバー間でインターネット経由で接続する場合の一般的なトラフィックルートスキーム。



同様の問題の解決策を見つけ、モスクワの卸売および小売商社のインフラストラクチャに問題なく適用しました。 さらに説明します。



はじめに、なぜ必要な場合があるのか​​を判断しましょう。





これらは考えられるすべての理由とはほど遠いものであり、実際に遭遇した主で最も一般的なものをリストしています。



1つのデータセンターでも、クラウド仮想サーバーと物理サーバーを結合する際の問題は一般的です。 原則として、これはクラウドがデータセンターのネットワークコアから分離された別個のネットワークコアを持っているという事実によるものです。 これにはいくつかの理由があります。





クラウドと物理機器が異なるデータセンターにある場合、この場合のように、さらに多くのニュアンスがあります。 ただし、クラウドが元々正しく設計されていれば、すべての問題は解決されます。 どうやってやったか教えてあげましょう。



最初は、クラウド用に別のネットワークコアを構築することは意味がないと判断されました。 これは、データセンターの物理機器のインフラストラクチャの一部と、クラウドのプロジェクトリソースのネットワークサービスの統合を最大限にしたかったためです。 実際、DDoS攻撃からの保護、トラフィックバランシング、VPN組織、インターネットアクセスバンド、専用通信チャネルなどのサービスは、物理的な機器であろうとクラウドであろうと、同じ方法でプロジェクトのフレームワークで提供されます。



ネットワークコアの説明については説明しませんが、写真と説明を含む別の投稿があります。 クラウドに関する決定についてのみ説明します。

クラウドリソースが個別のラックに配置され、独自のスイッチを持っていることは明らかですが、コアは共有されています。 クラウドが配置されているラックには、Cisco Catalyst 3750Xシリーズスイッチが積み重ねられています。 4つのアップリンクがコアから1つのラックの2つのスイッチにスクロールされます。 当然、これらのアップリンクは互いに予約し、スイッチの1つ、カーネルの一部、またはアップリンクに障害が発生した場合、クライアントはこれに気付きません。



スタック内のスイッチは、iSCSIトラフィックを除き、プロジェクトクラウド内のすべての着信および発信トラフィックを処理します。 つまり、インターネットアクセス、仮想サーバー間の内部トラフィック、および仮想サーバーと物理機器間の内部トラフィックは、これらのスイッチとアップリンクを通過します。 チャネルボリュームは、すべてのトラフィックが遅延なく静かに通過するように配置されているため、リンクの1つに障害が発生しても、快適なネットワーク運用に十分な容量が確保されます。 トラフィック量が特定のしきい値に近づくと、十分な量のカーネル容量と障害のあるチャネルがあるため、アップリンクを追加します。



当然、すべてのクライアントトラフィックは、異なるVLANで分離された異なるサブネット上で実行されます。 仮想サーバー間のプロジェクトの内部ネットワークは完全に隔離されており、クライアント以外は誰もアクセスできません。 すべてのVLANはネットワークコアにあり、これが単一ネットワークアーキテクチャの主な利点です。 実際、ネットワークコアはこれらのVLANを正確に使用して、ルーティング、マーク、フィルターなどを行うことができます。 各VLAN内のトラフィック。



同時に、ホストにインストールされているHyper-V仮想化システムは、トラフィックのVLANへの分離を完全に理解しています。 アーキテクチャは非常に単純です。





仮想サーバーが複数の分離VLANからトラフィックを受信する必要がある場合、複数の仮想ネットワークアダプターが追加され、それぞれに特定のVLANが割り当てられます。





このプロジェクトの物理サーバーと仮想サーバー間の内部ネットワークを編成するスキームの例。



これはこのプロジェクトでどのように実装されていますか? 接続プロセスは次のとおりです。







この例の物理サーバーと仮想サーバー間の内部ネットワークの組織の簡略図。



これらの作業は、クライアントの要求に応じてエンジニアが行います。 明日午前中に同様のサービスを今日注文するなど、夜間のみそのような作業を行うという規制があるため、クライアントはすでに既成の構成を受け取っています。



このスキームは非常にシンプルであり、最も重要なことは普遍的です。 クラウドにもコアにも松葉杖はありませんでした。



その結果、クライアントは、新しいプラットフォームに切り替えたり、物理的な機器を放棄したりすることなく、単一のネットワークに統合されたインフラストラクチャを受け取りました。 それははるかに費用対効果が高いことが判明しました。



物理機器が別のデータセンターにある場合、この問題も解決されます。 この場合、クラウド側からは何も変更されません。すべて同じ追加のネットワークアダプター、VLANがフックされます。 しかし、物理的な機器の部分では、チャネルをさらに整理する必要があります。 パートナーの電気通信事業者を介してMPLSチャネルを編成するか、テレコム事業者とMPLSチャネルを個別に交渉してポイントオブプレゼンスにすることができます。



したがって、クラウドと物理的な機器を単一のネットワークとして接続できるだけでなく、オフィス、データセンター、モバイルユーザー、パートナーなど、すべてのサイトを接続できます。 実際、これにより、クラウド内に仮想サーバールームを編成し、既存のすべてのサブネットに接続できます。



ご覧のとおり、ソリューションに包括的にアプローチすれば、クライアントの希望を実現できます。 当然、発生する主な問題の1つは、ソリューションのコストです。 しかし、これは別の会話です。 ;)



All Articles