vSphereのvm-fexを介してCisco UCSでDirectPath I / Oを起動する

つまり、このテクノロジーにより、仮想マシンはハイパーバイザーを使用してサーバー上の物理pci



デバイスに直接アクセスできます。 ただし、このテクノロジーを使用すると、 vSphere



クラスターで許可されるほぼすべての有用な機能( fault tolerance



high availability



、スナップショット、 vMotion



、およびそれを使用したDRS



しなくなりvMotion









さらに、仮想マシンがデバイスを直接使用して、ハイパーバイザーをバイパスすると、このデバイスはハイパーバイザー自体にアクセスできなくなります。 たとえば、 DirectPath I/O



を介して仮想マシン内にネットワークカードを投げると、はい、仮想マシンからのトラフィックを処理するためのハイパーバイザーのリソースは使用されなくなります-これは良いことです。 悪いことは、スローされたネットワークカードを使用できる仮想マシンが1つだけであることです。 結局のところ、このテクノロジーは非常に物議を醸すものであり、無駄です。 しかし、すべてがそれほど単純ではありません。







楽しいCisco UCS





率直に言って、私はかなり退屈なタイプで、賞賛することはほとんど不可能です。 それがうまくいったとしても、私はいつもそれを見せたいとは思わない、そして私がそれを望むところに、私はいつもうまくいくとは限らない。 正直に言うと、 Cisco



ブレードシステムに慣れる前は、 Cisco



がサーバーを製造していることすら知りませんでした。 それは判明し、生産し、そして私が賞賛するのに飽きることのないものでさえも。







私は一生サーバーで仕事をしていましたが、ブレードシステムが手に落ちることは少々少なくなりました。 UCS manager



初めて見たとき、突然それを受け取らないことが明らかになりました。 なんで? サーバーにボタンがないためだけです。 service profile



特定の構成パラメータのセットから形成されるまで、鉄片は役に立たない。







プロファイルの構成パラメータでは、ブレードから何でもスカルプトできます:BIOSパラメータ、ブートシーケンス、 ip-kvm



hba



、ファームウェアバージョン、ネットワークカードのパラメータおよびmac



アドレス( iscsi



および通常)。 これはすべて非常に柔軟に行われ、便利な階層と、アドレスやポピーなどの大幅に変化するパラメーターのプールを指定する機能を備えています。 したがって、これがすべて研究されるまで、ブレードは機能しません。







ブレードネットワーク



ここでは構成については説明しません。 Cisco



は、この主題に関する非常に明確なドキュメントを提供しています。 そして、Habréを含むインターネット上で、これについて多くの記事が書かれています。 Cisco UCS



ブレードシステムのネットワーク部分についてCisco UCS



ます。 ネットワーク部分も特別です。 実際、ブレードサーバーにはネットワークインターフェイスがありません。 ブレードはネットワークでどのように機能しますか? それでも同じように、各ブレードにはネットワークアダプターがあります。これはVirtual Interface Card



vic



)です。







バスケット内のIO Module



iom



iom



、これら2つの鉄片により、実サーバーに必要な量の仮想ネットワークインターフェイスを作成できます。 もちろん、制限はありますが、制限は非常に大きく、すべての人に十分なはずです 。 では、なぜブレードに100個のネットワークインターフェイスが必要なのでしょうか? 仮想化を使用しない場合、理由はありません。 これが時が来た場所です ヴァレラ 役に立たない DirectPath I/O



思い出してDirectPath I/O



。これは今ではまったく異なる観点から見られます。







vSphere



ドキュメントの 2番目の部分では、 Cisco UCS



DirectPath I/O



突然DirectPath I/O



ブラックジャックと売春婦が付属しています スナップショット、 fault tolerance



high availability



、およびvMotion



で動作しvMotion



。これらには、 DRS



が続きvMotion



。 「クール!」私はそれについて読んだときに考えました。 「さっそくやって、みんな幸せになります」と中断しました。 Cisco



ドキュメントにもVMWare



ドキュメントにも、これをすべて実行する方法の説明のようなものは見つかりませんでした。 私が見つけることができたすべてのうち、ステップバイステップの指示を作成する試みに非常にリモートで似ているものがありました。 このサイトはすでに死んでいるので、ウェブアーカイブへのリンクです。







もう少し水



私は最初に詳細なマニュアルを作成することにしました-私自身のために、もう一度タスクに直面したとき、私は何も忘れずに、迅速かつ正常にすべてを繰り返します。 第二に、他のすべての人にとっては、ほとんどの読者、おそらく将来は自分もCisco UCS



出会うことはないだろうということをよく知っています。 インポート置換にも感謝します。







UCS



DirectPath I/O



を正常に使用するには、 vSphere



virtual distributed switch



vds



)がどのように機能するかを理解する必要があります。 理解がない場合、または開始できない場合、このマニュアルを完了したと思われる場合は、ここで説明されているすべてを実行できます-これはエラーです。 開始することが判明する場合がありますが、その後、誤解による誤ったアクションのために非常に簡単に壊れます。







同じことがUCS manager



も当てはまります。 この記事では、 vds



、およびUCS manager



ほとんどの構成については説明しません。 VMWare



Cisco



、さまざまなハウツー、フォーラムの質問と回答、およびインターネット上の他のものに関する十分な説明があります。







ucsm



vcsa





ucsm



がvCenter Server Appliance( vcsa



)にvds



を作成してvcsa



をドライブするには、最後にキーを追加してアクセスを許可する必要があります。







  1. ucsm



    を開く→ vm



    タブ→ filter: all



    vmware



    よる



    export vCenter extension



    cisco_ucs_vmware_vcenter_extn.xml



    ファイルが含まれるディレクトリを示します。 実際、スクリーンショットを撮るのはあまり好きではありませんが、そのような鉄片を描くのは素晴らしいことです。

    ucs manager仮想マシン
  2. 次に、この拡張機能をvcsa



    にインポートする必要があります。 VMWare



    は、バージョン5.1からのvCenter



    を使用したすべての操作は、Webクライアントを介して実行できると主張しています。 たぶんそうですが、バージョン5.1、5.5、または6.0のいずれかで、このファイルをWebクライアントからインポートする方法を見つけられませんでした。


そのため、 vmware vsphere client



バージョン6.0を開く→トップメニュー→ plugins



plugins



manage plugins







プラグインのリストが表示されたウィンドウの空の場所で、



new plug-in...



browse...



cisco_ucs_vmware_vcenter_extn.xml



register plug-in









登録に成功すると、新しいCisco-UCSM-xxx



プラグインがリストに表示されます。xxxの代わりに、上のスクリーンショットで難読化したキーがあります。







vcsa



vcsa



からのコマンドを受け入れる準備ができました。







vm-fex



vds





vm-fex



ucsm



で作成および構成する必要があるvirtual distributed switch



を介してvirtual distributed switch



し、後者は前の部分で説明した統合によりvcsa



この構成を適用します。 この部分のすべての作業は、 vm



タブのucsm



で行われるため、すべての点で参照するわけではありません。







  1. vmware



    クリックし、 configure vCenter



    フィールドname



    description



    、およびhostname (or ip address)



    vcsa



    のデータhostname (or ip address)



    記述します: gallente tackler



    10.7.16.69



    10.7.16.69



    next



    2回→セクションfolders



    datacenters



    スキップ→ finish



    ;
  2. ares



    クリック→ create datacenter



    name



    description



    フィールドにvcsa



    すでに作成されているデータセンターのデータを書き込みます: dc



    next



    →スキップするfolders



    セクション→ finish



    ;
  3. dc



    クリック→ create folder



    name



    フィールドとdescription



    フィールドにvds



    が含まれるcreate folder



    のデータを書き込みます: ucs



    next



    →section DVSs



    skip→ finish



    ;
  4. ucs-main



    右クリック→ create DVS



    name



    description



    フィールドにvds



    のデータを書き込みます: ucs-main



    OK



    admin state: enable



  5. vds



    準備vds



    できました。 vds



    port profiles



    を作成しport profiles



    。 本質的には、これはdistributed port group



    と同じですが、 cisco



    用語では。 そのうち2つしかありません。1つはすべてのvilanが許可されるトランクプロファイル、もう1つは仮想マシンの管理ネットワークを備えたタグなしvilanで、ゲストシステムは何らかの理由でトラフィックにタグ付けできません。

    1. port profiles



      クリックします。 name



      description



      フィールドで、プロファイルデータvm-mgmt-ucs



      を書き込みます。 host network io performance



      high performance



      VLANs



      のリストで、mgan mgmt



      反対側の3番目の列のラジオボタンを1つ選択します
    2. vm-trunk-ucs



      トランクポートについても同じことを行います。 ラジオボタンを選択する代わりに、最初の列ですべてのvylansをオフにします。 ucsmに必要なucsm



      がすでに作成されていることが理解されています。
    3. 次に、これら2つのプロファイルをvds



      入れる必要があります。 それらのいずれかをクリックして、 profile clients



      タブを選択→右側の緑色の[+]



      name



      all



      datacenter



      all



      folder



      all



      distributed virtual switch



      all



      。 2番目のプロファイルでも同じです。 次のようになります。

      vdsポート

      しばらくして、このucs-main



      vcsa



      登場しvcsa



      。 これが発生しない場合は、 fsm



      タブを確認する必要があります-ほとんどの場合、理由がそこに書き込まれます。


ハイパーバイザーブレード



冒頭で述べたように、ブレードを起動するには、プロファイルを掛ける必要があります。 これを行うには、最初にプロファイルを作成する必要があります。 サーバーのプロファイルを作成することは、このドキュメントの目的ではないため、プロファイルを作成するために必要なものはすべてそこにあるということです。 vm-fex



関連するもののみを説明します。これがないと、 DirectPath I/O



は機能しません。 各ブレードで、4つの静的ネットワークインターフェイスを実行します。 4つすべてが1つのファクトリに関連付けられ、2番目のファクトリにfailover



されfailover



。 ブレードの半分は工場



で、残りの半分はそれぞれb



ます。







最初のインターフェイスは通常のvSwitchのままです。 2番目のインターフェイスは通常のvds



接続されます。 3番目のインターフェイスはucs-vds



接続されます。 実際には、 ucs-vds



でのuplink



形式のインターフェイスの参加は、 ucs-vds



ように見えます。 彼に依存するものは何もありません。 しかし、これが行われていない場合、仮想インターフェイスの転送は機能しません-私はチェックしました:)仮想マシンのポートをより柔軟に構成できるように、4番目のインターフェイスをソフトウェアcisco nexus 1000v



として追加のvds



に接続することを計画しましたが、私の手はまだ到達しませんでした。







VMWare



レベルでstand by



ことなく、すべてのインターフェイスをスイッチに追加します。 failover



UCS



レベルで実装されます。 接続レベルで冗長ではない2つのインターフェイスを持つ通常のブレードまたはサーバーの場合、このスキームは正しくありません。 UCS



以外で不注意にそれを繰り返さないでください。







adapter policy



作成



adapter policy



は、サーバー内の各ネットワークインターフェイスの設定の集合です。 最初のadapter policy



は、4つの静的ハイパーバイザーインターフェイス用で、2つ目のadapter policy



は動的用です。







  1. タブservers



    policies



    root



    adapter policies



    右クリック→ create ethernet adapter policy



    name



    nn-vmw



    、リソース:

    1. transmit queues



      4



      ring size



      4096



      ;
    2. receive queues



      4



      ring size



      4096



      ;
    3. completion queues



      8



      interupts



      16



      ;
    4. 書き換えoptions



      怠zyなので、スクリーンショットは次のとおりです。

      アダプタオプション
  2. 再びservers



    policies



    nn-vmw-pt



    adapter policies



    nn-vmw-pt



    name



    nn-vmw-pt



    、リソース:

    1. transmit queues



      8



      ring size



      4096



      ;
    2. receive queues



      8



      ring size



      4096



      ;
    3. completion queues



      16



      interupts



      32



      ;
    4. 残りは同じです。 動的インターフェイスを実行するには少なくとも8つのキューが必要であるため、2倍のキューがあります。 今のところ確認のソースを提供することはできません。 もう一度見つけたら追加します。


グループ化されたvnic template



を作成する



ブレードにネットワークインターフェイスを持たせるには、テンプレートを作成する必要があります。 テンプレートは各プロファイルで直接使用することも、 lan connectivity policy



介してグループ化することもできます。 2番目のケースでは、サーバープロファイルまたはプロファイルテンプレートごとに、必要なすべてを実行する目的のlan connectivity policy



を指定するだけで十分です。







静的インターフェイス用に2つのテンプレートを作成します。 1つのテンプレートはファクトリーa



で動作し、 b



failover



failover



が、2番目はその逆です。







  1. lan



    タブ→ policies



    root



    vNIC templates



    によるcreate vnic template



    create vnic template



    name



    trunk-a



    fabric id



    a



    enable failover



    target



    adapter



    vm



    注意 !完成したテンプレートでこの設定を変更すると失敗します)→ template type



    updating template



    →すべてのvilanをオフにします→MACプールでdynamic vnic



    アドレスの事前に作成されたmac pool



    選択します→ connection policies



    dynamic vnic



    2番目のtrunk-b



    パターンは、 fabric id



    を除いて同じです: b



  2. グループ化とは、 lan connectivity policy



    を意味します: lan



    タブ→ policies



    root



    lan connectivity policies



    esxi4-trunk-a



    PCM→ lan connectivity policies



    create lan connectivity policy



    name



    [+] add



    ボタンを使用してesxi4-trunk-a



    、次に4つのネットワークインターフェイスを追加します。

    1. user vnic template



      横のボックスをuser vnic template



      、3つのフィールドのみを入力します。 name



      nic0



      vnic template



      :前の段落で作成されたtrunk-a



      選択し、 adapter policy



      nn-vmw



      、以前に作成されました。
    2. name



      についてさらに3回繰り返しますnic3



      .. nic3



      ;


name



esxi4-trunk-b



についてセクション全体を繰り返しb



それぞれファクトリーb



バインドします。







bios policy



作成



bios policy



-これらはBIOS設定です。BIOS設定に変更することで変更できます。 コンソールを開いて各ブレードにアクセスすることは意味がありません。これがすべてブレードパックのためにすぐに中央で実行できる場合です。







  1. タブservers



    policies



    root



    bios policies



    によるbios policies



    bios policies



    create bios policy





    1. name



      fex



      ;
    2. reboot on bios settings change



      反対側のチェックボックス。
    3. また、通常resume on ac power loss



      (サーバー)でresume on ac power loss



      ために、 reset



      ラジオreset



      反対側に設定します。
  2. processor



    セクション:

    1. virtualization technology (vt)



      enabled



    2. direct cache access



      enabled



  3. intel direct io



    セクションでは、すべてのラジオボタンがenabled



    状態です。
  4. これはDirectPath I/O



    には適用されませんが、 boot options



    セクションでboot option retry



    を有効にすることも好きです。
  5. これは、 DirectPath I/O



    必要な最小値ですDirectPath I/O



    残りは必要です。または、すぐに[ Finish



    押します。


その他の設定は、ポリシーの作成後に変更できます。







service profile



作成する



それから形成され、ブレードに直接掛けられ、それに応じて鉄片が構成されます。 サーバープロファイルを直接作成し、クローンを作成できます。 ただし、すべての依存サーバープロファイルで設定が継承および変更されるテンプレートから作成する方がより正確です。 サーバープロファイルテンプレートには、ここでは考慮されていない多くの設定が含まれています。これは、私の助けなしで既に完了していることを意味します。 ここでは、 DirectPath I/O



が機能するために必要なもののみを検討します。







サーバータブ→ service profile templates



→右クリック→ create service profile template



name



esxi4-a



type



updating template



。 2番目の設定を完成したテンプレートに変更することはできないため、作成時に設定することを忘れることは非常に重要です。







networking



セクションで、 dynamic vnic connection policy



を設定しcreate a specific dynamic vnic connection policy



create a specific dynamic vnic connection policy



create a specific dynamic vnic connection policy



number of dynamic vnics



マニュアルのネームプレートによると、ここのデフォルト値は54



です:私はucs



6296を持っていucs



iom



モデルはすべてのバスケットにiom



を持っているので、最後の行によれば、 iom



9000の場合の最大vif



数は58、mtu 1500の場合は58です116.この情報は部分的にのみ真実です。







明らかに、 マニュアルを書いたヒンズー教徒はこの問題を完全に理解していませんでした。 真実は、アダプタポリシーにキュー数とring size



誇張された値が含まれている場合、ブレードは54の動的インターフェイスをダイジェストできません。 過大評価された値を拒否することはできません。サーバーには膨大なトラフィック負荷がかかり、ポートあたり10ギガビットをはるかに超えます(これについては後述します)。 アダプターポリソールと数値vif



値を入力する数学的方法を使用して、私の場合、ここで数値33が正常に設定され、追加の静的インターフェースにわずかなマージンがあることがわかりました。 突然必要です。







このため、4つの静的インターフェイスを持つ回路を選択しました。 33の動的なインターフェイスはたくさんありますが、本当に誰にとっても十分なはずです 。 しかし、私のクラスターには、強力なネットワークを必要としない、半休眠状態の仮想マシンが多数あります。 33個の動的インターフェイスの1つをそれらに費やすのは無駄です。 したがって、これらのvds



は、より多くを要求し始めるまで、通常のvds



存続します。 それらのほとんどはこのvds



決して到達しないのでvds



彼らは通常のvds



絶えず生きます。







adapter policy



nn-vmw-pt



protection



protected



。 これは、 ucsm



が各ブレードのDirectPath I/O



用に作成する動的インターフェイスが両方の工場に均等に分散されることを意味します。 どうしてこうすることにしたのか思い出せません。 おそらく直観。 これが間違っている可能性もあり、動的インターフェイスは静的インターフェイスと同じファクトリに固定する必要があります。 時間はわかります。 再実行するのは簡単です。簡単で、変更のために仮想マシンを停止する必要はありません。







how do would you like to configure lan connectivity?



use connectivity policy



。 ここで、前に作成したネットワークインターフェイステンプレートのグループ化を利用します。 lan connectivity policy



esxi4-trunk-a









vnic/vhba placement



、スクリーンショットで簡単に表示できます。

vnic / vhbaの配置







operational policies



セクションで、新しく作成されたbios policy



を設定する必要があります。 これで、サーバープロファイルテンプレートを作成できます。







テンプレートから、プロファイル自体を直接作成できるようになりました。 [サーバー]タブ→ service profile templates



root



esxi4-trunk-a



よるesxi4-trunk-a



create service profiles from template



naming prefix



test



name suffix starting number



1



number of instances



1



。 これは、 test1



という名前の単一のプロファイルがテンプレートから作成されることを意味しtest1









次に、プロファイルをブレードに関連付ける必要があります。 タブservers



service profiles



root



> test1



クリックtest1



change service profile association



select existing server



select existing server



、表示されたタブレットでブレード自体を選択します。ブレード自体は作成されたプロファイルに関連付ける必要があります。 [ ok



]ボタンをクリックすると、 ucsm



からブレードが再構築されるという警告の質問が表示されます。 私は肯定で答え、 ucsm



仕事のために刃ucsm



準備するのを待ちます。







ucsm



がブレードを準備している間、サーバープロファイルのnetwork



タブに注意する必要があります。 次のようになります。

サーバープロフアイル







正常に完了した後、このセクション全体を繰り返して、ファクトリb



ではなくファクトリb



機能する2番目のテンプレートとプロファイルを作成する必要があります。







結婚する



自動車産業での結婚は、パワーユニットがボディに接続される瞬間です。 この名前はこのセクションにも最適です。







esxi



のインストールはスキップします。 それは非常にシンプルで、まったく面白くないです。 ここesxi



したVmware-ESXi-5.5.0-2068190-custom-Cisco-5.5.2.3.iso



イメージからESXi550-201512001.zip



ESXi550-201512001.zip



、ここからESXi550-201512001.zip



アップグレードしたことESXi550-201512001.zip



ESXi550-201512001.zip



します 。 その結果、 vCenter



によると、結果はバージョン5.5.0-3248547



です。 または、 Vmware-ESXi-5.5.0-3248547-Custom-Cisco-5.5.3.2.iso



link )をすぐにインストールできます-結果は同じです。 esxi



インストールイメージesxi



Cisco



サーバー用に特別に準備されていますが、何らかの理由でcisco virtual machine fabric extender



vm-fex



vm-fex



含まれていません。







個別にダウンロードする必要がcisco-vem-v161-5.5-1.2.7.1.zip



ますucs-bxxx-drivers-vmware.2.2.6c.iso



からucs-bxxx-drivers-vmware.2.2.6c.iso



ファイルが必要ucs-bxxx-drivers-vmware.2.2.6c.iso



。 このドライバーをハイパーバイザーにアップロードしてesxcli software vib install -d /tmp/cisco-vem-v161-5.5-1.2.7.1.zip



必要があります: esxcli software vib install -d /tmp/cisco-vem-v161-5.5-1.2.7.1.zip



ところで、上記のリンクはすべて自由にスイングできます。登録するだけです。 自由にダウンロードできない唯一のものはvCenterです。 私はVMware-VCSA-all-6.0.0-3634788.iso



(別名6.0u2



)を使用しますが、 VMware-VCSA-all-6.0.0-3634788.iso



でも成功したスタンドがあります。 また、 vcsa



インストール、ハイパーバイザーの追加、クラスターの作成もスキップします。







なぜvcsa



バージョン6



esxi



バージョン5.5



を選んだのかを議論する価値があるでしょう。 以前のすべてのvcsa



のWebクライアントvcsa



ほぼ完全にflash



記述されています。 , vmware, npapi



, chrome



2015. vmware vsphere client



, , -. vcsa



, .







esxi



, 5.1



, iscsi



host profile



. , , , . , vds



5.5 , . , cisco nexus 1000v



. esxi



6.0



: ucs-bxxx-drivers-vmware.2.2.6c.iso/VM-FEX/Cisco/VIC/ESXi_6.0/README.html



: Not supported



.







. vds



, vcsa



. : vds



. . vds



. vcsa



5.5



:

vcsa 5.5アップリンク







vcsa



6.0



:

vcsa 6.0アップリンク







, , :

エラー







. supportforums.cisco.com



, communities.vmware.com



- vmware employees



, , - . vcsa



5.5



npapi



chrome



, . , vds



, ucsm



, - - .







vds



vmware vsphere client



. , — , . esxi



vds



host profile



. , esxi



vds



— sdk, , , .







, DirectPath I/O



vds



, ucsm



. esxi



vds



. , . esxi



vSwitch



, vcsa



, esxi



, vds



5.5.







DirectPath I/O



. , — , ucs-vds



, — vmxnet3



, reserve all guest memory



. . DirectPath I/O



Active



. ucsm



:

ucs仮想マシン







bond. james bond. ?



, 14 /. , irqbalance



:







 top - 13:35:03 up 9 days, 17:41, 2 users, load average: 0.00, 0.00, 0.00 Tasks: 336 total, 1 running, 334 sleeping, 0 stopped, 1 zombie Cpu0 : 1.4%us, 8.5%sy, 0.0%ni, 90.2%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu1 : 1.0%us, 7.8%sy, 0.0%ni, 91.2%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu2 : 1.4%us, 4.4%sy, 0.0%ni, 94.2%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu3 : 1.3%us, 8.1%sy, 0.0%ni, 90.6%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu4 : 2.5%us, 9.3%sy, 0.0%ni, 81.4%id, 0.0%wa, 0.0%hi, 6.8%si, 0.0%st Cpu5 : 1.8%us, 9.5%sy, 0.0%ni, 83.6%id, 0.0%wa, 0.0%hi, 5.1%si, 0.0%st Cpu6 : 1.8%us, 6.6%sy, 0.0%ni, 86.3%id, 0.0%wa, 0.0%hi, 5.2%si, 0.0%st Cpu7 : 2.6%us, 8.8%sy, 0.0%ni, 83.9%id, 0.0%wa, 0.0%hi, 4.7%si, 0.0%st Cpu8 : 2.9%us, 8.3%sy, 0.0%ni, 83.3%id, 0.0%wa, 0.0%hi, 5.4%si, 0.0%st Cpu9 : 1.0%us, 8.0%sy, 0.0%ni, 91.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu10 : 1.3%us, 8.9%sy, 0.0%ni, 89.4%id, 0.0%wa, 0.0%hi, 0.3%si, 0.0%st Cpu11 : 1.3%us, 9.3%sy, 0.0%ni, 89.4%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu12 : 0.7%us, 3.1%sy, 0.0%ni, 96.2%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu13 : 1.1%us, 5.3%sy, 0.0%ni, 88.0%id, 0.0%wa, 0.0%hi, 5.6%si, 0.0%st Cpu14 : 2.9%us, 8.7%sy, 0.0%ni, 81.9%id, 0.0%wa, 0.0%hi, 6.5%si, 0.0%st Cpu15 : 1.8%us, 9.0%sy, 0.0%ni, 82.4%id, 0.0%wa, 0.0%hi, 6.8%si, 0.0%st Mem: 8059572k total, 3767200k used, 4292372k free, 141128k buffers Swap: 4194300k total, 0k used, 4194300k free, 321080k cached
      
      





- , . , . . ucs



( ) . ecmp



? , . Cisco UCS



. port-channel . , — 80 /.












All Articles