ギガビットスクむヌゞングたたはViPNet Client / Coordinatorの文曞化されおいない機胜

みなさんこんにちは。 この投皿では、自発的な実隓ずサヌバヌルヌムでの数時間が、WindowsバヌゞョンのViPNet Custom 4.3のパフォヌマンスに関しお興味深い結果を埗るのにどのように圹立ったかに぀いお説明しおいたす。







もう興味がありたすか 次に、猫の䞋を芋おください。



1.はじめに



圓初、このテストは単玔に独自の内郚実隓でした。 しかし、私たちの意芋では、結果は非垞に興味深いものであったため、受け取ったデヌタを公開するこずにしたした。



ViPNetカスタム゜フトりェアずは䜕ですか ぀たり、これは、ロシアのFSBおよびFSTECの芁件に埓っおInfoTeKSが開発したファむアりォヌルず暗号化の耇合䜓です。



゜リュヌションのテスト時には、さたざたな構成でのViPNetカスタム゜フトりェアバヌゞョンのパフォヌマンス枬定に関するデヌタはありたせんでした。 ViPNetカスタム゜フトりェアの実装の結果ず、パフォヌマンスがベンダヌによっお知られ文曞化されおいるViPNet Coordinator HW1000 / HW2000のハヌドりェア実装ず比范するのは興味深いこずでした。



2.初期スタンドの説明



OJSC InfoTeKSのサむトinfotecs.ruのデヌタによるず、HWプラットフォヌムの最も匷力な構成には次の特城がありたす。



皮類 プラットフォヌム CPU スルヌプット
HW1000 Q2 AquaServer T40 S44 Intel Core i5-750 最倧280 Mb / s
HW2000 Q3 AquaServer T50 D14 Intel Xeon E5-2620 v2 最倧2.7 Gb / s




残念ながら、テスト条件に関する远加情報は提䟛されおいたせん。



最初は、次の特性を持぀機噚にアクセスできたした。

1IBMシステムx3550 M4 2 x E5-2960v2 10コア64 GB RAM;

2Fu​​jitsu TX140 S1 E3-1230v2 4コア16GB RAM。



実隓で富士通サヌバヌを䜿甚するこずは疑問芖されたした...すぐに10GbEをストヌムしたいずいう欲求は、機噚䞊のネットワヌクの䞍足によっお防がれたので、出発点ずしお残すこずにしたした。



IBMでは、ESX 6.0u1bプラットフォヌムに基づいた仮想10ギガビットスむッチを備えた2぀の仮想サヌバヌを線成し、その埌、2぀の仮想マシンの党䜓的なパフォヌマンスを評䟡したした。



スタンドの説明



1.サヌバヌIBMシステムx3550 M4 2 x E5-2960v2 10コア64 GB RAM、ESXi 6.0u1。

仮想マシンVMごずに、10コアの物理プロセッサが1぀割り圓おられたす。



VM1Windows 2012 R2VipNet Coordinator 4.3_1.33043

•1぀のCPU 10コア。

•8GB RAM。

VM2Windows 8.1ViPNetクラむアント4.3_1.33043

•1぀のCPU 10コア。

•8GB RAM。



VMは10Gbps仮想スむッチに接続され、MTU 9000がむンストヌルされたす。



2. Fujitsu Server TX140 S1 E3-1230v2 4コア16Gb RAM、Windows 2012 R2、ViPNet Client 4.3_1.33043。



IBMおよび富士通の物理サヌバヌは、ギガビットネットワヌクによっおMTU 9000に接続されおいたす。ハむパヌスレッディングは䞡方のサヌバヌで無効になっおいたす。 ロヌド゜フトりェアずしおIperf3が䜿甚されたした。



スタンドのレむアりトを図1に瀺したす。







図1-テストベンチの構成のスキヌム



3.テストの最初の段階



残念ながら、この蚘事の準備はすべおのテストの埌に開始されたため、このセクションでは、最終結果を陀く結果のスクリヌンショットは保存されたせんでした。



3.1。 テスト番号1



最初に、1 Gb / sのネットワヌク垯域幅を提䟛できるかどうかを評䟡したす。 これを行うには、仮想コヌディネヌタヌVM1 Windows 2012 R2ViPNet Coordinator 4.3ず物理サヌバヌFujitsu TX140 S1をロヌドしたす。



VM1偎では、Iperf3はサヌバヌモヌドで実行されおいたす。

サヌバヌ偎のFujitsu Iperf3がオプション付きで起動



Iperf.exe –cサヌバヌIP –P4 –t 100、



–P4パラメヌタヌは、コアの数に等しいサヌバヌ䞊のスレッドの数を瀺したす。



テストは3回実斜されたした。 結果を衚1に瀺したす。



è¡š1.テスト1の結果



ホスト CPU負荷 負荷に達したした チャンネル
VM1 Windows 2012 R2ViPNet Coordinator 4.3 <25 972 Mbps 1Gbps
富士通TX140 S1 100 972 Mbps 1Gbps




結果に基づいお、次の結論が出されたす。

1暗号化タスクのE3-1230v2プロセッサは、1Gb / sのネットワヌク垯域幅を提䟛できたす。

2仮想コヌディネヌタヌの負荷が25未満。

3同様のプロセッサヌを䜿甚するず、ViPNet Coordinator HW1000の公匏パフォヌマンスはほが4倍を超えたす。



取埗したデヌタに基づいお、富士通TX140 S1サヌバヌが最倧パフォヌマンスに達しおいるこずが明らかです。 したがっお、さらなるテストは仮想マシンでのみ実行されたす。



3.2。 テスト番号2



それで、玠晎らしいスピヌドが来たした。 仮想コヌディネヌタヌVM1 Windows 2012 R2ViPNet Coordinator 4.3およびVM2 Windows 8.1ViPNet Client 4.3をテストしたす。



VM1偎では、Iperf3はサヌバヌモヌドで実行されおいたす。

サヌバヌサむドVM2 Iperf3がオプション付きで起動



Iperf.exe –cサヌバヌIP –P10 –t 100、



–P10は、コアの数に等しいサヌバヌ䞊のスレッドの数を瀺したす。



テストは3回実斜されたした。 結果を衚2に瀺したす。



è¡š2.テストNo. 2の結果



ホスト CPU負荷 負荷に達したした チャンネル
VM1 Windows 2012 R2ViPNet Coordinator 4.3 25〜30 1.12 Gbps 10 gbps
VM2 Windows 8.1ViPNetクラむアント4.3 25〜30 1.12 Gbps 10 gbps




ご芧のずおり、結果は以前の結果ず倧差ありたせん。 次の倉曎を加えお、テストをさらに数回実行したした。

•iperfのサヌバヌ郚分がVM2に転送されたす。

•Windows Server 2012 R2䞊のVM2のゲストOSをViPNet Coordinator 4.3に眮き換えたした。



テストしたすべおの組み合わせで、結果は誀差範囲内で同じたたでした。

ほずんどの堎合、ViPNet゜フトりェア自䜓に組み蟌みの制限があるずいう理解がありたした。



いく぀かのテストオプションの埌、パラメヌタヌを䜿甚しおIperf3が起動されたこずが刀明したした

Iperf.exe –cサヌバヌIP –P4 –t 100

垯域幅は、富士通サヌバヌで以前に達成された垯域幅ずほが同じになりたした。



同時に、4぀のプロセッサコアが最も負荷が高くなりたした-ちょうど25の電力です。



埗られた結果は、最終的に制限があるこずを確信したした。 結果は、問題の解決策を求めおメヌカヌに送信されたす。



4.実隓の継続



すぐに、メヌカヌからの応答が受信されたした。

「プロセッサの数は、キヌ倀HKLM \ System \ CurrentControlSet \ Control \ Infotecs \ Iplir、その倀ThreadCountで制埡できたす。 倀が-1であるか、蚭定されおいない堎合、スレッドの数はプロセッサの数に等しいが、4以䞋になりたす。倀が蚭定されおいる堎合、この倀に等しいスレッドの数が遞択されたす。



たあ、掚枬は正しかった。 䞡方の仮想マシンでThreadCountパラメヌタヌを10に蚭定しお、パフォヌマンスを最倧にするスタンドを構成したす。



4.1。 テスト番号3



必芁なすべおの倉曎を行った埌、Iperfを再床起動したす。



VM1偎では、Iperf3はサヌバヌモヌドで実行されおいたす。 サヌバヌサむドVM2 Iperf3がオプション付きで起動

Iperf.exe –cサヌバヌIP –P10 –t 100、



–P10は、コアの数に等しいサヌバヌ䞊のスレッドの数を瀺したす。



テストは3回実斜されたした。 結果を衚3および図2-3に瀺したす。



è¡š3.テストNo. 3の結果



ホスト CPU負荷 負荷に達したした チャンネル
VM1 Windows 2012 R2ViPNet Coordinator 4.3 100 2.47 Gbps 10 gbps
VM2 Windows 8.1ViPNetクラむアント4.3 100 2.47 Gbps 10 gbps








図2-VM1 Windows 2012 R2ぞのiPerf3の出力ViPNet Coordinator 4.3







図3-VM2 Windows 8.1ViPNetクラむアント4.3ぞのiPerf3の出力



結果に基づいお、次の結論が出されたす。

1倉曎により、完党なプロセッサ䜿甚率で最倧の暗号化パフォヌマンスを実珟できたした。

22぀のXeon E5-2960v2を䜿甚する堎合の合蚈パフォヌマンスは、5 Gbpsに等しいず芋なすこずができたす。

32぀のプロセッサの党䜓的なパフォヌマンスを考慮するず、埗られた暗号化パフォヌマンスはViPNet Coordinator HW2000の公匏結果を2倍超えおいたす。



埗られた結果は、あなたがさらに埗るこずができる関心を高めたした。 幞いなこずに、より匷力な機噚にアクセスできるこずがわかりたした。



たた、テスト䞭に、ViPNet ClientずViPNet Coordinatorの垯域幅に差がなかったこずにも泚意しおください。



5.テストの第2段階



ViPNetの゜フトりェア郚分のパフォヌマンスをさらに調査するために、次の特性を持぀2぀の別個のブレヌドサヌバヌにアクセスしたした。

•CPU 2 x E5-2690v2 10コア。

•ESXi 6.0u1。



各仮想マシンは、独自の「ブレヌド」に配眮されたす。



VM1Windows 2012 R2ViPNet Client 4.3_1.33043

•2 CPU 20コア。

•32 GB RAM。



VM2Windows 2012 R2ViPNet Client 4.3_1.33043

•2 CPU 20コア。

•32 GB RAM。



仮想マシン間のネットワヌク接続は、MTU 9000ずの10 Gbpsサヌバヌブレヌド接続を介しお行われたす。䞡方のサヌバヌでハむパヌスレッディングが無効になっおいたす。



負荷をシミュレヌトするために、iPerf3゜フトりェアに加えお、次の䞻芁なパラメヌタヌを持぀Ntttcpが䜿甚されたした。



1受信偎



Iperf.exe –s;



送信偎で



Iperf.exe –cserver_ip –P20 –t100;



2受信偎



NTttcp.exe -r -wu 5 -cd 5 -m 20、*、self_ip -l 64k -t 60 -sb 128k -rb 128k;



送信偎で



NTttcp.exe -s -wu 5 -cd 5 -m 20、*、server_ip -l 64k -t 60 -sb 128k -rb 128k



スタンドのレむアりトを図4に瀺したす。







図4-テストベンチの構成のスキヌム



5.1。 テスト番号4



たず、暗号化せずにネットワヌク垯域幅をテストしたしょう。 ViPNet゜フトりェアがむンストヌルされおいたせん。



テストは3回実斜されたした。 結果を衚4および図5-6に瀺したす。



è¡š4.テストNo. 4の結果



ホスト CPU負荷 負荷に達したした チャンネル
Tttcp 2.5 8.5 gbps 10 gbps
Iperf 4 9.3 gbps 10 gbps








図5-暗号化なしのNtttcpのテスト結果







図6-暗号化なしでIperfをテストした結果



結果に基づいお、次の結論が出されたした。

110 Gbpsのネットワヌク垯域幅が達成されたした。

2テスト゜フトりェアの結果に違いがありたす。 さらに、信頌性のために、IperfずNtttcpの䞡方の結果が公開されたす。



5.2。 テスト番号5



䞡方の仮想マシンでThreadCountを20に蚭定し、結果を枬定したす。



テストは3回実斜されたした。 結果を衚5および図7〜8に瀺したす。



è¡š5-テストNo. 5の結果



ホスト CPU負荷 負荷に達したした チャンネル
Tttcp 74〜76 3.24 Gbps 10 gbps
Iperf 68〜71 3.36 gbps 10 gbps








図7-暗号化を䜿甚したNtttcpのテスト結果







図8-暗号化を䜿甚したIperfのテスト結果



結果に基づいお、次の結論が出されたした。



1単䞀のサヌバヌでは、ViPNet Coordinator HW2000の理論的なパフォヌマンスを超えたした。

25 Gbpsの理論的性胜は達成されおいたせん。

3CPU負荷が100に達しおいない。

4テスト゜フトりェアの結果の違いは残りたすが、珟時点ではごくわずかです。



サヌバヌ䞊のプロセッサが完党に䜿甚されなかったずいう事実に基づいお、暗号化ストリヌムの同時数に察するViPNetドラむバヌの䞀郚の制限に泚意を払いたす。



制限を確認するために、暗号化操䜜䞭に1぀のプロセッサコアを読み蟌むこずを怜蚎したす。



テスト番号6



このテストでは、以前のテストの結果によるず、パラメヌタヌで倧きなプロセッサ負荷が発生するため、Iperfのみを䜿甚したす。



Iperf.exe –cIP_server –P1 –t100。



レゞストリを介しお各サヌバヌで、暗号化操䜜䞭に1぀のコアを䜿甚するようにViPNetを制限したす。



テストは3回実斜されたした。 結果を図9-10に瀺したす。







図9-暗号化操䜜䞭の1぀のコアの䜿甚率







図10-シングルコアをロヌドするずきに暗号化を䜿甚しおIperfをテストした結果



結果に基づいお、次の結論が出されたした。



1シングルコアが100ロヌドされたした。

21぀のコアの負荷に基づいお、20のコアで5.25 Gbpsの理論的なパフォヌマンスが埗られたす。

3シングルコアのロヌドに基づいお、ViPNet゜フトりェアには14コアの制限がありたす。



コアの制限を確認するために、プロセッサに含たれる14個のコアで別のテストを実斜したす。



テスト番号7



14コアの暗号化を䜿甚したテスト。



このテストでは、パラメヌタヌ付きのIperfのみを䜿甚したす



Iperf.exe –cIP_server –P12 –t100。



レゞストリを介しお各サヌバヌで、暗号化操䜜䞭に䜿甚するコアが14を超えないようにViPNetを制限したす。







図11-暗号化操䜜䞭の14コアの廃棄







図12-14コアをロヌドするずきに暗号化を䜿甚しおIperfをテストした結果



結果によるず、結論が䞋されたす



114コアすべおがロヌドされたした。

2パフォヌマンスは20コアのオプションに䌌おいたす。

3マルチスレッド暗号化操䜜には14コアの制限がありたす。



テスト結果は、問題の解決策のリク゚ストずずもにメヌカヌに送信されたした。



6.結論



しばらくしお、補造元からの応答が受信されたした。



「Windowsコヌディネヌタヌでの4぀以䞊のコアの䜿甚は文曞化されおいない機胜であり、その適切な動䜜は怜蚌も保蚌もされおいたせん。」



これでテストを終了できるず思いたす。



テスト結果で゜フトりェアバヌゞョンがかなり先行しおいるのはなぜですか



ほずんどの堎合、いく぀かの理由がありたす。

1叀いテスト結果。 非公匏デヌタによるず、新しいファヌムりェアでは、HWのパフォヌマンスが倧幅に向䞊しおいたす。

2文曞化されおいないテスト条件。

3最倧の結果を埗るために、文曞化されおいない機䌚が䜿甚されたこずを忘れないでください。



ただ質問がありたすか コメントで圌らに聞いおください。



アンドレむ・クルタサノフ、゜フトラむン



All Articles