SDNおよびNFVへのネットワークの進化

データ伝送ネットワークの環境で技術コンセプトに変化が生じたのはなぜですか、その理由は何ですか?また、サービスプロバイダーの生活は現代のトレンドの実装を通じてどのように変化しますか?



歴史的遠足



画像



1969年以降の伝送ネットワークテクノロジー(ARPANET)の開発は、各ハードウェアコンポーネントが他のコンポーネントから独立していることを確認することを目的としていました。 相互作用プロトコルは、アルゴリズムを使用してトポロジを分析し、デバイス間の相互作用のモデルを構築する制御情報の交換の原則に基づいて機能しました。



画像



このアプローチは、デバイスまたは通信回線の一部が故障する可能性のある軍事紛争でのデータ伝送ネットワークの生存の可能性を高めるために特別に設計されたバージョンがあり、残りのネットワークコンポーネントは、どのトポロジーが一貫性を保ち、実行可能。 つまり、ネットワークの分散化が目標として設定されました。



画像



開発されたすべての動的ルーティングプロトコル(RIP、OSPF、IGRP、BGP)および分岐ツリープロトコル(STP)は、この原則に基づいて構築されました-ピアが隣接との接続に関する利用可能な情報を交換し、単一のネットワークとして機能する共通のトポロジに自己組織化するデバイス



画像画像



その時点で現在の目標を達成しました-自律性、時間の経過、ネットワークの負荷が増大したとき、現在の接続がどれほど非効率であるかが明らかになりました。 OSIの第2レベルでのネットワークの動作により、冗長接続が切断され始め、データネットワークの全体的な使用率が低下しました。 OSIの第3レベルでのネットワーク操作により、非対称ルーティングが開始され、パケット配信の一貫性が失われ、受信デバイスのバッファ占有量が増加する可能性がありました。



画像



もう1つの問題は、データネットワークの特定の物理的な場所に実装されたネットワーク機能(ファイアウォール、負荷分散、ミラーリング)が、トラフィックが生成された場所からトポロジ内で遠くに配置できるという事実でした。 トラフィックはハードウェアデバイスに配信する必要があり、そこでのみ、たとえばフィルタリングされるため、トラフィックがトラフィック生成の場所でフィルタリングされる場合よりも利用率が高くなり、効率が低下しました。



SDN



画像



それ以来、多くの時間が経過し、軍事紛争の脅威は残っていますが、技術のリーダーたちは現在、中央集権化の目標は現代のニーズを満たしていると判断しました。 このアプローチは、制御機能とデータ転送機能の分離の方向にデータ伝送ネットワークのモデルを修正する必要性をもたらしました。 トラフィック送信デバイスから情報を収集し、このトラフィックを管理する方法を決定するコントローラーであるすべての管理機能を単一のポイントに集中させることが決定されました。



画像



集中化により、すべての接続の輻輳の効率が向上し、ハードウェアデバイスのリソースを最大限に活用できます。 開発されたOpenflowプロトコルは、トラフィックで実行する必要があるアクションでスイッチをプログラミングすることにより、トラフィック伝送プレーンを制御する問題を解決しました。 さらに、コントロールプレーンコントローラー内でトラフィックを送信する方法の意思決定モデルは、よく知られている動的ルーティングプロトコルのベースとなる数学モデルとはまったく異なる数学モデルを使用して実装できます。 違いは、最新のルーティングプロトコルは、トポロジに関するポイント間で情報を交換するという原則に基づいていることです。 ただし、トポロジ全体が1か所に格納されている場合、情報交換アルゴリズムは必要ありません。 トラフィックをポイントAからポイントBに転送するためにトポロジ情報を使用する必要があるだけです。集中型のアプローチでは、トラフィック転送の決定は普遍的ではない場合があります。 つまり、同じパスに沿った2つのポイント間ですべてのトラフィックを転送する必要はありません。 トラフィックの一部は1つのパスを通過し、もう一方は同じトポロジ内の代替パスを使用できます。 このアプローチは、既存のネットワークインフラストラクチャの利用率を最大化することにより、効率を改善します。



Nfv



画像



もう1つの利点は、ネットワークへのトラフィックエントリのさまざまなポイントで、どのタイプのトラフィックにどのポリシーを適用するかについての情報があるため、ネットワークのこのポイントでネットワーク機能を直接適用できることです。 数百のネットワーク機能をハードウェアプラットフォームから分離し、入力として制御情報を受け取るプログラムの形式で実装し(トラフィックに適用するポリシー)、トラフィックの着信および発信インターフェイスを指定できる場合、このネットワーク機能はx86サーバー上の標準オペレーティングシステムで実行します。 トラフィックの生成または交換のポイントでこれらのプログラムを起動することにより、中央コントローラはスイッチをプログラムして、必要なタイプのトラフィックをネットワーク機能に転送できます。 ネットワーク機能によって処理された後、トラフィックはデータプレーンに返され、最終受信者に送信されます。



画像



このようなモデルを採用する理由の1つは、専用のハードウェアプラットフォームに実装された特定のネットワーク機能がユニバーサルコンピューティングプラットフォームに同じ機能を実装するよりも高い価格で提供されるため、データネットワークのコストを削減することです。 特殊なプラットフォームのパフォーマンスは常に高く、生産性がそれほど高くないユニバーサルプロセッサの時代に重要でしたが、現代のトレンドはこの違いを平準化し、現在では共有CPUでも速度の向上により、指定されたネットワーク機能を必要なパフォーマンスで実行できるようになりました。



画像



もう1つの利点は、データネットワークの任意の場所でネットワーク機能を実行できる場合、生成またはトラフィック交換のすべてのポイントに必要なパフォーマンスを分散できるため、1つのデバイスで巨大なパフォーマンスを必要としないことです。 この事実により、トラフィックを大幅に増加させながら、ネットワーク機能のパフォーマンスを非常に迅速にスケーリングできます。 これは、すべての人類の生活における重要なイベント、例えば、サッカー選手権、オリンピック、英国王子の結婚式の放送中に定期的に観察されます。 そのような瞬間に、人々はビデオを録画し、写真を撮り、すべてを「クラウド」にアップロードし、リンクを交換します。 これはすべて、適切なポイントにリダイレクトできるようにする必要があるトラフィック量の爆発的な増加につながります。



画像



リアルタイム圧縮(WAN最適化)、最も近いポイントへのトラフィックリダイレクト(CDN)、サーバーファーム間の負荷分散(負荷分散)のネットワーク機能は、自動モードで適切な規模で展開され、特定の形式で提供される必要がありますトラフィック。 自動プロビジョニング、自動スケーリング、および自動トラフィックリダイレクト設定を備えたMANOシステムは、このタイプのトラフィックを識別し、必要な機能で仮想マシンを起動し、トラフィックをリダイレクトするのに役立ちます。



まの



画像



このプロセスのオーケストレーター(管理および運用)には、次のような一連の機能が必要です。



1)物理インフラストラクチャの管理:伝送ネットワーク、データウェアハウス、サーバー。

2)仮想化プラットフォームを使用して、物理インフラストラクチャに基づいて必要なインスタンスを作成します:仮想マシン、仮想LUN、仮想ネットワーク。

3)現在のネットワークデバイスからテレメトリを受信して​​、追加のネットワーク機能の提供を分析および決定します。

4)テンプレートから必要なネットワーク機能を実行し、必要なタスクに対応する設定をそれらにロードします。

5)障害、事故、または過負荷の場合に運用上の決定を下すために、実行中のネットワーク機能のステータスを分析します。

6)作業の必要がなくなった場合に実行中のネットワーク機能を削除し、テレメトリからの自動データに基づいて、または管理者の要求に応じてこれを行います。

7)請求計算に使用されるリソースに関する情報をITシステム事業に転送します。



この機能の実装により、サービスオペレーターから顧客および消費者にサービスを提供するのにかかる時間が劇的に加速されます。 サービスが市場に参入するまでの時間を短縮すると、インフラストラクチャの収益化が増加し、利益が増加します。 コンテンツのよりスムーズで高速な消費によるユーザーエクスペリエンスは、サービスの消費者の感情的な認識を改善し、最終的には顧客指向のプロバイダーとしての通信事業者の魅力を高めます。



エンタープライズCPE仮想化



画像



従来の通信チャネル(「パイプ」)の提供から付加価値サービスのセットの作成へのプロバイダーの作業の変更は、引き続き収益性の高いサービスを提供し、長期的には、インフラプロバイダーマーケットの競争の激化による収益の減少にはつながりません。



サービスプロバイダーの収益性を高めるもう1つの機会は、スマートエンドポイント移行(CPE)モデルです。 デジタルモデムからマネージドルーターへの移行により、いくつかの目標を達成できます。 現時点では、顧客のリモートブランチを接続するために、サービスプロバイダーは、ブランチのローカルネットワークを、MPLSテクノロジーまたはレガシープロバイダーの場合はATMテクノロジーのいずれかで編成された、希望する専用ネットワークのオペレーターのネットワークに接続するデバイスを必要とします。 この場合、顧客のトラフィックでさまざまな操作を実行する必要があるため(追加のネットワーク機能を提供するため)、このトラフィックをクライアントからオペレーターのネットワークのコアに配信する必要がありました。このネットワーク機能を実装するデバイスが配置され、指定されたポリシーに従ってネットワークコアのトラフィックを既に処理しています これにより、「ラストマイル」とオペレーターのトランクの利用率が向上し、トラフィックは生成ソースの近くで処理できるようになりました。 一方、エンドポイントデバイスは、A / Dコンバーターまたはかなり単純なIPデバイスのいずれかであり、予防的な監視やリモート構成の可能性はありませんでした。



画像



このようなデバイスを新世代のCPEに置き換えると、いくつかの問題が解決します。 新しいCPEのリモート管理により、アクティブ化URLを使用する2要素方式を使用したゼロタッチプロビジョニングが可能になります。 したがって、メーカーから直接エンドカスタマーにデバイスを送信し、未熟な人員を含め、目的の構成でその場でデバイスをアクティブ化することができます。 さらに、エンドポイントで直接付加価値サービスを提供できる低電力ネットワーク機能を備えたコンテナーまたは仮想マシンの仮想化レイヤーを使用したCPEでの実装により、アプリケーションストアの顧客は接続ポイントに必要な機能をアクティブ化できます:ウイルス対策保護、スパムフィルタリング、ペアレンタルコントロールなど。 これらの機能に追加料金を請求する事業者は、新しいSDNアプリケーションを迅速かつシームレスに実装することにより、収益を増やす幅広い機会を得ることができます。



企業のお客様の場合、インターネットの存在する場所に新しいオフィスを迅速に展開することが現実になります.CPEが複数のCPEと中央のデータセンターの間でVXLANまたはMPLSoGREテクノロジーを使用して転送トンネルを自動的に構築する場合、多くのIPSec VPNトンネルを新しいアドレスに再構成する必要はありません。 リモートオフィスの一元管理により、ソフトウェアをCPEにすばやく変更し、構成データを一元的に保存できます。 情報セキュリティツールは、組織全体ですぐに単一の管理コンソールからアクティブ化できます。 ポリシーはSDNコントローラーまたはオーケストレーターでのみ構成できるため、情報セキュリティ管理者は、ブランチの従業員がルーターコンソールにアクセスできないことを理解します。



結論



画像



前述の傾向を使用して-集中制御プレーンへの切り替え、ネットワーク機能を備えた専用デバイスをソフトウェアNFを備えたx86サーバーに置き換え、OSS \ BSSシステムのさまざまなコンポーネントに制御信号を送信する仮想リソース管理システム、および端末接続デバイスの自動化と仮想化を作成しますサービスを市場に投入する速度を高め、付加価値の高いサービスを提供するためのエコシステムを構築し、エンドカスタマーに対するプロバイダーの魅力を高める ntov。



All Articles