NetApp FASパフォヌマンスの最適化

この蚘事では、NetApp FASシステムのパフォヌマンスの最適化に焊点を圓おたす。



ストレヌゞの芳点から、最適化のオブゞェクトは蚭定になりたす。







ボトルネックを怜玢するには、通垞、順次陀倖手法が実行されたす。 最初にストレヌゞから始めるこずをお勧めしたす 。 次に、 ストレヌゞを移動したす ->ネットワヌク むヌサネット / FC->ホスト Windows / Linux / VMware ESXi 5.XおよびESXi 6.X ->アプリケヌション。





NetAppの簡単な教育プログラム



NetApp FAS ストレヌゞシステムの内郚構造のパラダむムを思い出させおください。これは、 FASシステムでほずんど垞に芳察される「シェアナッシング」むデオロギヌによるず、 ディスクはRAID グルヌプ  RAID-DP で結合され、 RAIDグルヌプはPlex プレックスで結合されたす。 ストレヌゞシステム間のミラヌリングの堎合に䜿甚されたす RAID1の類䌌、䞡方のPlexがAggregateに結合され、 FlexVolはAggregateで䜜成され、 FlexVolのデヌタはAggregateのすべおのドラむブに均等に分散され、QtreeはFlexVolで䜜成されたす あらゆる皮類のクォヌタを割り圓おるこずができるフォルダヌのようなもの、Qtreeはできたせんネストする堎合、Qtree LUNの内郚が䜜成されたす。





NetApp FASストレヌゞオブゞェクト



ある時点では、1぀のディスクは1぀のコントロヌラヌのみに属するこずができたす。これは、DataONTAPの最も基本的なニヌズであり、OSの奥深くに配線されおいたす。 DataONTAPのディスクは、実際にはディスク党䜓でもパヌティションパヌティションでもかたいたせん。 ぀たり、そのようなオブゞェクトディスク党䜓たたはそのパヌティションの1぀は垞に所有暩を持ち、ONペアの1぀のコントロヌラヌに察しおのみ所有暩を持ちたす。 したがっお、画像の単玔さには泚意を払えないニュアンスがありたす2番目のケヌスでは、1぀の物理ディスクに耇数のパヌティションがあり、その所有暩が割り圓おられ、䜿甚されるパヌティションがありたす-1぀のコントロヌラヌ-他のパヌティション-別のコントロヌラヌがオンカップル。



そのため、ある時点では、「ディスク」DataONTAPの芳点から、ムヌン、ボリュヌム、およびアグリゲヌトは1぀のコントロヌラヌのみに属したす。 ただし、この月ぞのアクセスは、 HAペアのパヌトナヌ、たたはクラスタヌの他のノヌドを介しおも可胜です。 しかし、そのような月ぞの最適なパスは垞に、月-> volyum->ナニットが配眮されおいるディスクを所有するコントロヌラヌのポヌトを通過するパスのみです。 コントロヌラヌに耇数のポヌトがある堎合、これらのポヌトはすべお、このコントロヌラヌにある月ぞの最適なパスです。 原則ずしお、コントロヌラヌのすべおのポヌトを介しお月ぞの可胜なすべおの最適なパスを䜿甚するず、月ぞのアクセス速床にプラスの圱響がありたす。 ホストは、すべおの最適パスを同時に䜿甚するこずも、最適パスの䞀郚のみを䜿甚するこずもできたす。これは、そのようなホストのOSのマルチパス蚭定ずストレヌゞのポヌトセット蚭定に䟝存したす。







Cluster-ModeのFASシステムの他のすべおのプロトコルにも同じこずが圓おはたりたす。最適なパスは、デヌタが実際に配眮されおいるコントロヌラヌのポヌトを経由するパスです。 7-Modeでは、 CIFS / iSCSI / NFSプロトコルの最適でないパスを介したデヌタぞのアクセスはありたせん。



したがっお、 フロント゚ンドぞのパスがストレヌゞシステムぞのすべおのアクセスプロトコルに察しお垞に最適であるこずを確認する必芁がありたす。



したがっお、 FC / FCoE / iSCSI プロトコルの堎合、 ALUAメカニズムはこの問題を解決するのに圹立ち、最適なパスがどこにあり、どこにないかをホストに䌝え 、正しいマルチパス蚭定により、正垞な動䜜で最適なパスのみが䜿甚されるようにしたす。



NFSプロトコルでは、最適なパスの䜿甚はRedHat LinuxですでにサポヌトされおいるpNFSで解決されたした 。 これにより、クラむアントは远加蚭定なしで自動的に最適なパスを理解し、切り替えるこずができたす。 NFS v3.0プロトコルを䜿甚したVMware ESXi 6.0仮想化環境の堎合、ClusteredONTAPを備えたNetApp FASストレヌゞでサポヌトされおいるvVolテクノロゞヌを䜿甚しお、最適パスの問題が実装されたす。



CIFS SMBプロトコルの堎合、バヌゞョン3.0は、 SMB自動ロケヌションメカニズムを実装したす。これは、 pNFSず同様に、ファむル共有ぞの最適なパスに切り替えたす。



SANマルチパス



FC / FCoEで7-ModeおよびCluster-ModeでNetApp FASを䜿甚する堎合、 ALUAを有効にする必芁がありたす。 7-ModeずCluster-ModeのiSCSIの蚭定は異なるため、最初のケヌスではALUAモヌドをオンにできたせんでしたが、2番目のケヌスでは必芁です。



マルチパスでは、デフォルトで優先パスを䜿甚する必芁がありたす。これは、 LUNぞのパスであるLUNぞのパスです。 FCP Partner Path Misconfigured ストレヌゞコン゜ヌルのメッセヌゞは、 䞍適切に構成された ALUAたたはMPIOを瀺したす 。 これは重芁なパラメヌタヌです。激怒したホストマルチパッシングドラむバヌがパス間でノンストップを切り替え、I / Oシステムに倧きなキュヌを䜜成する実際のケヌスが1぀あったため、無芖しないでください。



ポヌトセット


8ノヌド4 ONペアのFASシステムのSANクラスタヌサむズでは、月ぞのアクセスパスしたがっおコントロヌラヌのポヌトの数は想像を超える数に達する可胜性がありたす。 クラスタヌ内のノヌドの数は増加するだけですが、頻繁に、フォヌルトトレランスを犠牲にするこずなく、非垞に劥圓な数のプラむマリパスずセカンダリパスに制限するこずができたす。 したがっお、 ポヌトセットはこの問題を解決し、特定のポヌトでのみ月を「芋る」こずができたす。 したがっお、ムヌンが芋えるストレヌゞポヌトを切り替えおスむッチ䞊で構成し、それに応じおゟヌニングを構成する必芁がありたす。



遞択的LUNマップ


DataONTAP 8.3以降では、 SLM方匏がデフォルトで䜿甚され、月ぞのパスの数が2぀のコントロヌラヌ月を所有するコントロヌラヌずHAペアのパヌトナヌに削枛されたす。 SLMメカニズムを䜿甚しおムヌンを別のクラスタヌノヌドに移行する堎合、ムヌンを䜿甚できるポヌトを指定するために管理者が远加の操䜜を行う必芁はありたせん。すべおが自動的に行われたす。 移行された衛星が利甚できるLIFストレヌゞむンタヌフェむスのWWPNが 、スむッチの目的のゟヌンに远加されるようにする必芁がありたす。 察応するゟヌン内のすべおのクラスタヌノヌドのすべおの可胜なWWPN をすぐに登録し、月ぞのパスが「十分に倧きくない」ようにSLMメカニズムを凊理するこずをお勧めし たす 。 詳现



オンラむン移行ずSLM


オンラむン移行の堎合、移行する月を受け入れるノヌドで、月が新しい远加の方法で利甚できるようになったマルチパスホストのドラむバヌを「䌝える」こずが必芁です。



ゟヌニング


NetApp + VMWare SANによるトラブルシュヌティングの詳现をご芧ください。 NetAppのゟヌニングガむドラむンの詳现に぀いおは、写真をご芧ください。



むヌサネット



Data Ontap 8.2.1以降、 DCB ロスレスむヌサネットは、すべおのコンバヌゞド CNA / UTA NetApp FASストレヌゞポヌトでサポヌトされおいたす。 むヌサネットネットワヌクを蚭定するための掚薊。



シンプロビゞョニング


「ファむル」プロトコルNFSおよびCIFSを䜿甚する堎合、ファむル領域内の解攟されたスペヌスを返すこずにより、シンプロビゞョニングテクノロゞヌの䜿甚を利甚するこずは非垞に簡単です。 ただし、 SANの堎合、ThinProvitioningを䜿甚するず、空き領域を垞に制埡し、空き領域を解攟する必芁が生じたす SCSI-3メカニズムは最新のオペレヌティングシステムで䜿甚でき、Data Ontapではバヌゞョン8.1.3以降で䜿甚できたす。同じLUNには「入りたせん」ただし、このLUNを含むボリュヌム内。



NFS


10 GBE接続およびOracle デヌタベヌスがある堎合、 dNFSプロトコルを䜿甚しお接続する可胜性を考慮するこずを匷くお勧めしたす 。これは、NetApp内郚テスト他のストレヌゞベンダヌではこの状況が異なる堎合があるによるず、 FC 8Gず比范した堎合のパフォヌマンスずレむテンシは同等たたはわずかに優れおいるためですOLTPロヌド。 NFSは、仮想化にも非垞に䟿利です。すべおのホストが「芋る」すべおの仮想マシンを備えた1぀の倧きなデヌタストアがあり、 SANネットワヌクでのゟヌニングずは察照的に、ホスト間の移行、メンテナンス、ネットワヌクむンフラストラクチャの構成を容易にしたす

たた、仮想化䞭にシック仮想マシンディスクを䜜成し負荷の高い環境でのVMWareベストプラクティスに埓っお、同時にNFS経由で配信されるパフォヌマンスず経枈性の䞡方を備えたThinストアの芳点からデヌタストアを持ち、䞡者間の劥協を行わないこずは非垞に䟿利です。 1぀のデヌタストアを䜿甚するず、空き領域をより効率的に分散し、より倚くを必芁ずする仮想マシンにそれを提䟛し、 FCおよびiSCSIで発生する「量」を厳密に修正するのではなく、スペヌス節玄を新しいレベルに匕き䞊げるこずができたす。 同時に、ブロックの重耇排陀や実装などによっお解攟された空きスペヌスは、このスペヌスを「戻し」、同じNFS / CIFSボヌルで䜿甚できたす。



ショヌマりント


Linuxのshowmount -eコマンドは 、cDOT 8.3以降でサポヌトされおいたす 。 showmount -eコマンドでNFSをデコヌドするには、ストレヌゞ偎からこの機胜を有効にする必芁がありたす。

nfs server modify -vserver * -showmount enabled
      
      







iSCSI


MS Windowsを䜿甚する堎合、 iSCSI MCSを䜿甚できたす。これにより、 1぀のiSCSIセッション内で耇数のTCP接続を䜿甚できたす。 MPIOずMCSを組み合わせるず、パフォヌマンスが倧幅に向䞊したす。



Windows 2008 R2およびFAS 3070のMCS / MPIOおよび10 GBEの異なるセッション数/ TCP接続でのスルヌプットMB / s

接続数 SQLIO NTFS MCS SQLIO NTFS MPIO
1 481 481
2 796 714
3 893 792
4 1012 890
5 944 852
6 906 902
7 945 961
8 903 911




Cifs


CIFS SMB3.0の新しいバヌゞョンでは、このプロトコルをファむルトラッシュの目的だけでなく、MS SQLデヌタベヌスおよびMS Hyper-Vを備えた仮想マシンで䜿甚するための新しい可胜性を開きたす。

継続的可甚性共有CAは、プロトコルの機胜を拡匵したす。 以前のバヌゞョンでは、 フェむルオヌバヌたたはLIFが別のポヌトに移動した堎合、クラむアントはリポゞトリぞの再接続を匷制されおいたした。 これで、 CAメカニズムにより、フェむルオヌバヌたたはLIFの移動時に接続がない堎合、サヌビスを短時間䞭断するこずなくファむルを䜿甚できたす 。



VMWare VAAIおよびNFS
NetAppは、 NFSプロトコルを䜿甚しおVMWare ESXiのVAAIプリミティブをサポヌトしおいるため、ホストからストレヌゞに 「ルヌチンタスク」をダりンロヌドできたす。 各ESXiホストにNFS VAAIプラグむンをむンストヌルする必芁がありたす FCプラグむンには必芁ありたせん。



CPUストレヌゞ


ストレヌゞシステムのすべおのコアを最適に䜿甚するには、少なくずも8぀のボリュヌムを䜿甚したす。これにより、䞊列化、䜿甚率、および結果ずしお䜜業速床が向䞊したす。



銙氎


perfstatナヌティリティは、 ストレヌゞシステムの負荷をテキストファむルに収集したす。 たた、ナヌティリティが実行されおいるホストから負荷に関する情報を同時に収集するこずもできたす。 support.netapp.com Webサむトからダりンロヌド-ナヌティリティToolChestセクションをダりンロヌドしたす入力するにはNetApp NOW IDが必芁です。 ホストがストレヌゞに十分なストレヌゞを提䟛できないこずがよくあるため、ロヌド時にストレヌゞから統蚈を収集するこずが非垞に重芁です。これは、perfstatログから確認できたす。この堎合、耇数のホストを䜿甚する必芁がありたす。



 perfstat7.exe -f 192.168.0.10,192.168.0.12 -t 2 -i 3,0 -l root -S pw:123456 -F -I -w 1 >"20140114_1311.out"
      
      





このナヌティリティを䜿甚するず、たずえば、 砎損したディスクがバック゚ンドおよびその結果フロント ゚ンドでシステム党䜓の速床を萜ずす堎合など、 ストレヌゞ偎の問題を含む、すべおのホストからのストレヌゞシステムの総負荷を远跡できたす。



perfstat出力の解釈


ホストずストレヌゞシステムのテスト結果を比范するず、テスト䞭のシステムのボトルネックを芋぀けるこずができたす。 したがっお、以䞋のperfstatコマンドの出力によれば、 FCを䜿甚しおストレヌゞシステムが十分にロヌドされおいない CPU 、ディスク䜿甚率、および合蚈パラメヌタヌこずは明らかです。 このシステムでの操䜜のほずんどは、キャッシュの内容を読み取る圢匏で実行されたす倀Cache hit。 結論ずしお、ホストはストレヌゞシステムを十分にロヌドできたせん。



perfstat.out
テキストファむルを開きたす 。

 =-=-=-=-=-= PERF 192.168.0.12 POSTSTATS =-=-=-=-=-= Begin: Wed Jan 15 07:16:45 GMT 2014 CPU NFS CIFS HTTP Total Net kB/s Disk kB/s Tape kB/s Cache Cache CP CP Disk OTHER FCP iSCSI FCP kB/s iSCSI kB/s in out read write read write age hit time ty util in out in out 8% 0 0 0 227 1 1 2307 24174 0 0 8 89% 11% : 22% 3 224 0 12401 852 0 0 12% 0 0 0 191 1 5 3052 24026 0 0 6s 90% 14% F 27% 1 190 0 21485 864 0 0 18% 0 0 0 517 0 1 5303 46467 0 0 0s 90% 33% 2 38% 1 516 0 23630 880 0 0 15% 0 0 0 314 1 2 4667 24287 0 0 0s 91% 15% F 33% 27 287 0 27759 853 0 0 12% 0 0 0 252 0 1 3425 24601 0 0 9 91% 16% F 28% 20 232 0 22280 852 0 0 24% 0 0 0 1472 2 5 9386 46919 0 0 1s 82% 34% F 47% 9 1463 0 26141 673 0 0 14% 0 0 0 303 1 3 3970 24527 0 0 8s 90% 27% F 33% 1 302 0 22810 967 0 0 14% 0 0 0 299 2 6 3862 24776 0 0 0s 91% 21% F 29% 1 298 0 21981 746 0 0 13% 0 0 0 237 1 3 4608 24348 0 0 9 94% 15% F 30% 1 236 0 22721 958 0 0 17% 0 0 0 306 1 2 5603 48072 0 0 2s 92% 32% F 37% 1 305 0 22232 792 0 0 13% 0 0 0 246 0 1 3208 24278 0 0 8s 92% 14% F 26% 20 226 0 24137 598 0 0 -- Summary Statistics ( 11 samples 1.0 secs/sample) CPU NFS CIFS HTTP Total Net kB/s Disk kB/s Tape kB/s Cache Cache CP CP Disk OTHER FCP iSCSI FCP kB/s iSCSI kB/s in out read write read write age hit time ty util in out in out Min 8% 0 0 0 191 0 1 2307 24026 0 0 0s 82% 11% * 22% 0 190 0 0 0 0 0 Avg 14% 0 0 0 396 0 2 4490 30588 0 0 2 90% 21% * 31% 7 389 0 22507 821 0 0 Max 24% 0 0 0 1472 2 6 9386 48072 0 0 9 94% 34% * 47% 27 1463 0 27759 967 0 0 Begin: Wed Jan 15 07:18:36 GMT 2014
      
      









パラメヌタヌCache age、Cache hit、CP tyの埩号化。 パフォヌマンスの最適化ず狭いネック ボトルネック の発芋に぀いおもう少し。



ファむルシステム


ホストFSは、パフォヌマンスのテスト時に倧幅な調敎を行うこずができたす。

FSブロックサむズは4KBの倍数である必芁がありたす。 たずえば、生成されたOLTPに䌌た合成負荷を実行し、操䜜されるナニットのサむズが平均8Kである堎合、8Kを蚭定したす。 たた、 FS自䜓ずしお、特定のOSおよびバヌゞョンぞの実装が党䜓的なパフォヌマンス状況に倧きく圱響する可胜性があるずいう事実にも泚意を喚起したいず思いたす。 したがっお、 デヌタベヌスからddファむルコマンドを䜿甚しお100 MBのブロックで10 MBをLUNにあるUFS FSに曞き蟌むず、 FC 4Gを介しおFAS 2240 ストレヌゞず21 + 2 SAS 600 10kディスクを1ナニットで転送したデヌタの速床は150 MB / sでしたが、 FS ZFSを䜿甚した同じ構成では、2倍ネットワヌクチャネルの理論䞊の最倧倀に近づくが瀺され、Noatimeパラメヌタヌは状況にたったく圱響したせんでした。



Noatime for file ball storage


たた、アクセスされるデヌタを含むストレヌゞセクションに同じパラメヌタヌを蚭定する必芁がありたす。 このオプションを有効にするず、 WAFL iノヌドのファむルアクセス時間が曎新されなくなりたす。 したがっお、次のコマンドはSMB CIFS / NFSファむルボヌルに適甚できたす。



 vol options vol1 no_atime_update on
      
      







ずれ


どのOSでも、 LUNの䜜成時に正しいゞオメトリを遞択する必芁がありたす。 FSブロックサむズが誀っお指定されおいる堎合、 LUNゞオメトリが誀っお指定されおいる堎合、ホストでMBR / GPTパラメヌタヌが正しく遞択されおいない堎合、ピヌク負荷時にコン゜ヌルで特定の「 LUNミスアラむメント」むベントに関するメッセヌゞが衚瀺されたす。 これらのメッセヌゞは誀っお衚瀺される堎合がありたすが、たれにしか衚瀺されない堎合は、単に無芖しおください。 ストレヌゞシステムでlun statsコマンドを実行するこずでこれを確認できたす。以䞋に出力䟋を瀺したす。align_histo.1100およびwrite_align_histo.197に泚意しおください。これは、通垞構成されたシステムではありたせん-ブロックはパラメヌタヌで「0」で始たる必芁がありたすAlign_histo



TR-3593
適切なアラむメントがないかどうかを刀断するには、さたざたな方法がありたす。 wafl_suspセクションの䞋のperfstatカりンタヌを䜿甚するず、「wp.partial_writes」、「pw.over_limit」、および「pw.async_read」が䞍適切なアラむメントの指暙になりたす。 「wp.partial write」は、アラむメントされおいないI / Oのブロックカりンタヌです。 少数の郚分曞き蟌み以䞊が発生するず、WAFLはバックグラりンド読み取りを開始したす。 これらは「pw.async_read」でカりントされたす。 「Pw.over_limit」は、ディスク読み取りで埅機しおいる曞き蟌みのブロックカりンタヌです。

Data ONTAP 7.2.1以降を䜿甚するず、I / Oアラむメントを远跡するLUNごずのカりンタヌがいく぀かありたす。

  • lunread_align_histoI / OがWAFLブロックの先頭から512bセクタヌ離れおいる数を远跡する読み取りの8binヒストグラム。 読み取りの割合ずしお報告されたす。
  • lunwrite_align_histo曞き蟌みず同じです。
  • lunread_partial_blocks4kの倍数ではない読み取り。
  • lunwrite_partial_blocks曞き蟌みでも同じです。


read / write_align_histo [0]を陀くこれらのいずれかがれロ以倖の堎合、I / Oの䜍眮がずれおいたす。



7-Modeのlun統蚈
 priv set -q advanced; lun show -v lun status lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:display_name:/vol/vol0/drew_smi lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:read_ops:1/s lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:write_ops:26/s lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:other_ops:0/s lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:read_data:10758b/s lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:write_data:21997484b/s lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:queue_full:0/s lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:avg_latency:290.19ms lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:total_ops:27/s lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:scsi_partner_ops:0/s lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:scsi_partner_data:0b/s lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:read_align_histo.0:0% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:read_align_histo.1:100% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:read_align_histo.2:0% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:read_align_histo.3:0% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:read_align_histo.4:0% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:read_align_histo.5:0% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:read_align_histo.6:0% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:read_align_histo.7:0% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:write_align_histo.0:0% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:write_align_histo.1:97% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:write_align_histo.2:0% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:write_align_histo.3:1% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:write_align_histo.4:0% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:write_align_histo.5:0% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:write_align_histo.6:0% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:write_align_histo.7:0% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:read_partial_blocks:0% lun:/vol/vol0/drew_smi-W9mAeJb3vzGS:write_partial_blocks:1%
      
      







Cluster-Modeのlun show
 cl1::*> set -privilege advanced; lun show -vserver <your_vserver> -path <your_path_to_the_lun> Vserver Name: vs_infra LUN Path: /vol/vol_infra_10/qtree_1/lun_10 Volume Name: vol_infra_10 Qtree Name: qtree_1 LUN Name: lun_10 LUN Size: 500.1GB Prefix Size: 0 Extent Size: 0 Suffix Size: 0 OS Type: vmware Space Reservation: disabled Serial Number: 804j6]FOQ3Ls Comment: Space Reservations Honored: true Space Allocation: disabled State: online LUN UUID: 473e9853-cc39-4eab-a1ef-88c43f42f9dc Mapped: mapped Vdisk ID: 80000402000000000000000000006a6a0335be76 Block Size: 512 Device Legacy ID: - Device Binary ID: - Device Text ID: - Read Only: false Inaccessible Due to Restore: false Inconsistent Filesystem: false Inconsistent Blocks: false NVFAIL: false Alignment: partial-writes Used Size: 89.44GB Maximum Resize Size: 4.94TB Creation Time: 10/31/2014 20:40:10 Class: regular Clone: false Clone Autodelete Enabled: false Has Metadata Provisioned: true QoS Policy Group: - cl1::*> set -privilege diagnostic; lun alignment show -vserver vs_infra -path * Vserver Name: vs_infra LUN Path: /vol/vol_infra_10/qtree_1/lun_10 OS Type: vmware Alignment: partial-writes Write Alignment Histogram: 62, 0, 0, 0, 0, 0, 0, 0 Read Alignment Histogram: 89, 0, 2, 0, 0, 0, 0, 0 Write Partial Blocks: 36 Read partial Blocks: 4 Vserver Name: vs_infra LUN Path: /vol/vol_0_a/lun_03032015_095833 OS Type: windows_2008 Alignment: aligned Write Alignment Histogram: 99, 0, 0, 0, 0, 0, 0, 0 Read Alignment Histogram: 99, 0, 0, 0, 0, 0, 0, 0 Write Partial Blocks: 0 Read partial Blocks: 0 Vserver Name: vs_infra LUN Path: /vol/vol_1_b/lun_03052015_095855 OS type: linux Alignment: misaligned Write alignment histogram percentage: 0, 0, 0, 0, 0, 0, 0, 100 Read alignment histogram percentage: 0, 0, 0, 0, 0, 0, 0, 100 Partial writes percentage: 0 Partial reads percentage: 0 Vserver Name: vs_infra LUN Path: /vol/vol_infra_20/qtree_2/lun_20 OS Type: linux Alignment: indeterminate Write Alignment Histogram: 0, 0, 0, 0, 0, 0, 0, 0 Read Alignment Histogram: 100, 0, 0, 0, 0, 0, 0, 0 Write Partial Blocks: 0 Read partial Blocks: 0
      
      







たた、 VMFSを䜿甚した「共有デヌタストア」䞊の仮想化環境でもミスアラむメントが発生する可胜性があり、システムパフォヌマンスの䜎䞋に぀ながる可胜性がありたす。 この堎合、既存の仮想マシンの問題を修正するには2぀の方法がありたす。vCenter甚のNetApp VSCプラグむンを介しお、仮想マシンStorage vMoutionの新しいデヌタストア正しいLUNゞオメトリぞの移行を開始するか、MBRalignコマンドラむンナヌティリティを䜿甚しお手動でブロックアラむメントを実行したすvmdkファむル。 手動モヌドでは、仮想マシンOSのブヌトロヌダヌが機胜しなくなる可胜性があり、埩元する必芁があるこずに泚意しおください。 詳现に぀いおは、仮想環境でのファむルシステムアラむンメントのベストプラクティスを参照しおください 。 I / Oミ​​スアラむメントずは䜕か 、およびそれを修正する方法に぀いお は 、こちらをご芧ください。



再配分



たずえば、 䜜成枈みのナニットにディスクを远加した埌など、すべおのデヌタがすべおのディスクに分散しおいるこずを確認するこずが䞍可欠です。 ディスク䞊のボリュヌムデヌタの「スミア」状態を確認するには、7-Modeで実行したす。

 reallocate measure –o /vol/<volume>
      
      





Custered ONTAPの堎合

 reallocate measure -vserver <vserver> -path /vol/<volume> -once true -threshold 3
      
      





そのようなコマンドの出力䟋を芋おみたしょう

 Sat Mar 1 20:26:16 EET [fas-a:wafl.reallocate.check.highAdvise:info]: Allocation check on '/vol/vol_vol01' is 12, hotspot 5 (threshold 4), consider running reallocate.
      
      





しきい倀4より倧きい12の倀は、ボリュヌムで再配眮を実行する必芁があるこずを瀺したす。 ホットスポット5の倀は、ホットブロックがナニットのすべおのディスクではなく5぀のディスクに配眮されおいるこずを瀺したす単玔な実装で解決されない堎合は、 こちらを参照しおください 。

䞍十分な空き領域ずスナップショットの存圚により、実装が劚げられる堎合がありたす 。 ボリュヌムでは、アクティブなファむルシステムに少なくずも5、SnapReserveに10の空き領域が必芁です。

新しいディスクを远加する堎合、デヌタだけでなく空のブロックもアンバランスするこずは理にかなっおいたす。



ボリュヌムデヌタの物理的な実装を実行しお、7-Modeのパフォヌマンスを最適化する

 aggr options aggr0 free_space_realloc on reallocate start -f -p /vol/<volume>
      
      





Clustered ONTAPで。 Clustered ONTAPの堎合、 reallocateコマンドは出力を返したせん。芁求する必芁がありたす。

 storage aggregate modify -free-space-realloc on reallocate start -vserver <vserver> -path /vol/<volume> -force true -threshold 3 -space-optimized true event log show -messagename wafl.reallocate* -severity *
      
      





展開埌のディスク負荷の均等分散






ストレヌゞ䞊のドラむブを確認する





テスト䞭、ディスクの1぀が故障しおいないか、ナニット党䜓にブレヌキをかけないこずを確認するこずが非垞に重芁です。



7-Modeの統蚈
 #  statit -b #     statit -e disk ut% xfers ureads--chain-usecs writes--chain-usecs cpreads-chain-usecs greads--chain-usecs gwrites-chain-usecs /aggr0/plex0/rg0: 01.0a.16 9 3.71 0.47 1.00 90842 2.94 15.14 1052 0.30 7.17 442 0.00 .... . 0.00 .... . 01.0b.17 11 3.86 0.47 1.00 126105 3.14 14.31 1170 0.25 2.20 1045 0.00 .... . 0.00 .... . 01.0a.18 35 35.52 33.62 1.24 14841 1.63 26.23 965 0.27 15.09 392 0.00 .... . 0.00 .... . 01.0b.25 78 35.15 33.47 1.13 64924 1.48 28.77 2195 0.20 16.75 1493 0.00 .... . 0.00 .... . 01.0a.24 34 33.96 32.26 1.13 17318 1.51 28.21 1007 0.20 17.00 257 0.00 .... . 0.00 .... . 01.0b.22 36 35.40 33.67 1.15 16802 1.51 28.25 1003 0.22 15.56 721 0.00 .... . 0.00 .... . 01.0a.21 35 34.98 33.27 1.16 17126 1.48 28.75 950 0.22 14.78 820 0.00 .... . 0.00 .... . 01.0b.28 77 34.93 33.02 1.13 66383 1.56 27.40 3447 0.35 10.21 8392 0.00 .... . 0.00 .... . 01.0a.23 32 33.02 31.12 1.17 14775 1.53 27.65 1018 0.37 10.80 1321 0.00 .... . 0.00 .... . 01.0b.20 35 34.41 32.38 1.29 15053 1.66 25.73 976 0.37 9.67 1076 0.00 .... . 0.00 .... . 01.0a.19 34 34.80 33.07 1.20 15961 1.51 28.30 930 0.22 15.00 681 0.00 .... . 0.00 .... . 01.0b.26 76 34.41 32.41 1.05 68532 1.63 26.09 3482 0.37 11.93 7698 0.00 .... . 0.00 .... . 01.0a.27 36 35.15 33.32 1.26 15327 1.56 27.35 1018 0.27 12.82 1170 0.00 .... . 0.00 .... . /aggr0/plex0/rg1: 02.0b.29 5 2.00 0.00 .... . 1.63 27.89 1023 0.37 9.80 231 0.00 .... . 0.00 .... . 02.0a.33 5 2.03 0.00 .... . 1.68 27.13 1095 0.35 8.21 330 0.00 .... . 0.00 .... . 02.0b.34 32 34.46 32.75 1.19 14272 1.51 29.87 927 0.20 16.63 617 0.00 .... . 0.00 .... . 02.0a.35 31 32.85 31.00 1.15 14457 1.51 29.87 895 0.35 12.36 1075 0.00 .... . 0.00 .... . 02.0b.41 32 33.10 31.44 1.20 13396 1.51 29.87 930 0.15 21.83 618 0.00 .... . 0.00 .... . 02.0a.43 31 32.73 30.92 1.19 13827 1.58 28.47 1005 0.22 15.22 920 0.00 .... . 0.00 .... . 02.0b.44 31 32.65 31.02 1.11 14986 1.51 29.85 913 0.12 26.00 408 0.00 .... . 0.00 .... . 02.0a.32 31 32.68 30.87 1.13 14437 1.58 28.48 956 0.22 15.78 627 0.00 .... . 0.00 .... . 02.0b.36 32 34.70 32.95 1.13 14680 1.56 28.94 975 0.20 16.75 582 0.00 .... . 0.00 .... . 02.0a.37 31 32.43 30.70 1.21 13836 1.51 29.89 929 0.22 14.78 797 0.00 .... . 0.00 .... .
      
      







クラスタヌモヌドの統蚈/統蚈
 #    storage disk show -broken #  run -node * -command "priv set diag; statit -b" #     run -node * -command "priv set diag; statit -e" disk ut% xfers ureads--chain-usecs writes--chain-usecs cpreads-chain-usecs greads--chain-usecs gwrites-chain-usecs /aggr0/plex0/rg0: 01.0a.16 9 3.71 0.47 1.00 90842 2.94 15.14 1052 0.30 7.17 442 0.00 .... . 0.00 .... . 01.0b.17 11 3.86 0.47 1.00 126105 3.14 14.31 1170 0.25 2.20 1045 0.00 .... . 0.00 .... . 01.0a.18 35 35.52 33.62 1.24 14841 1.63 26.23 965 0.27 15.09 392 0.00 .... . 0.00 .... . 01.0b.25 78 35.15 33.47 1.13 64924 1.48 28.77 2195 0.20 16.75 1493 0.00 .... . 0.00 .... . 01.0a.24 34 33.96 32.26 1.13 17318 1.51 28.21 1007 0.20 17.00 257 0.00 .... . 0.00 .... . 01.0b.22 36 35.40 33.67 1.15 16802 1.51 28.25 1003 0.22 15.56 721 0.00 .... . 0.00 .... . 01.0a.21 35 34.98 33.27 1.16 17126 1.48 28.75 950 0.22 14.78 820 0.00 .... . 0.00 .... . 01.0b.28 77 34.93 33.02 1.13 66383 1.56 27.40 3447 0.35 10.21 8392 0.00 .... . 0.00 .... . 01.0a.23 32 33.02 31.12 1.17 14775 1.53 27.65 1018 0.37 10.80 1321 0.00 .... . 0.00 .... . 01.0b.20 35 34.41 32.38 1.29 15053 1.66 25.73 976 0.37 9.67 1076 0.00 .... . 0.00 .... . 01.0a.19 34 34.80 33.07 1.20 15961 1.51 28.30 930 0.22 15.00 681 0.00 .... . 0.00 .... . 01.0b.26 76 34.41 32.41 1.05 68532 1.63 26.09 3482 0.37 11.93 7698 0.00 .... . 0.00 .... . 01.0a.27 36 35.15 33.32 1.26 15327 1.56 27.35 1018 0.27 12.82 1170 0.00 .... . 0.00 .... . /aggr0/plex0/rg1: 02.0b.29 5 2.00 0.00 .... . 1.63 27.89 1023 0.37 9.80 231 0.00 .... . 0.00 .... . 02.0a.33 5 2.03 0.00 .... . 1.68 27.13 1095 0.35 8.21 330 0.00 .... . 0.00 .... . 02.0b.34 32 34.46 32.75 1.19 14272 1.51 29.87 927 0.20 16.63 617 0.00 .... . 0.00 .... . 02.0a.35 31 32.85 31.00 1.15 14457 1.51 29.87 895 0.35 12.36 1075 0.00 .... . 0.00 .... . 02.0b.41 32 33.10 31.44 1.20 13396 1.51 29.87 930 0.15 21.83 618 0.00 .... . 0.00 .... . 02.0a.43 31 32.73 30.92 1.19 13827 1.58 28.47 1005 0.22 15.22 920 0.00 .... . 0.00 .... . 02.0b.44 31 32.65 31.02 1.11 14986 1.51 29.85 913 0.12 26.00 408 0.00 .... . 0.00 .... . 02.0a.32 31 32.68 30.87 1.13 14437 1.58 28.48 956 0.22 15.78 627 0.00 .... . 0.00 .... . 02.0b.36 32 34.70 32.95 1.13 14680 1.56 28.94 975 0.20 16.75 582 0.00 .... . 0.00 .... . 02.0a.37 31 32.43 30.70 1.21 13836 1.51 29.89 929 0.22 14.78 797 0.00 .... . 0.00 .... .
      
      





たたは、 statisticsコマンドを䜿甚したす 。



 set -privilege advanced ; statistics disk show -interval 5 -iterations 1 cl03 : 3/5/2015 10:30:29 Busy *Total Read Write Read Write Latency Disk Node (%) Ops Ops Ops (Bps) (Bps) (us) ----- --------------- ---- ------ ---- ----- ----- ----- ------- 1.0.4 Multiple_Values 1 5 2 3 31744 69632 6000 1.0.2 Multiple_Values 1 4 2 2 31744 65536 5263 1.0.8 Multiple_Values 0 2 1 1 62464 43008 5363 1.0.1 cl03-02 0 2 0 1 12288 7168 5500 1.0.0 cl03-02 0 2 0 1 12288 7168 5000 1.0.12 Multiple_Values 0 1 0 0 59392 53248 5000 1.0.10 Multiple_Values 0 1 0 0 60416 56320 6000 1.0.7 cl03-02 0 0 0 0 10240 0 0 1.0.6 cl03-02 0 0 0 0 11264 0 7500 1.0.5 cl03-02 0 0 0 0 10240 0 4000 1.0.3 cl03-02 0 0 0 0 10240 0 13000 1.0.17 cl03-02 0 0 0 0 10240 0 1000 1.0.16 cl03-01 0 0 0 0 10240 0 0 1.0.15 cl03-01 0 0 0 0 0 0 - 1.0.14 cl03-02 0 0 0 0 10240 0 0 1.0.11 cl03-02 0 0 0 0 10240 0 0
      
      







RAID-DP 11d + 2p構成では、アグリゲヌトが2぀のRAIDグルヌプ-rg0およびrg1で構成されおいるこずがわかりたす。 ドラむブ0c.16、1b.17および0c.29、0c.33はパリティディスクで、残りはデヌタです。



デヌタディスクが均等にロヌドされおいない堎合



statit / statisticsコマンドの出力で、奇劙な点を探しおいたす。 ディスクの䜿甚量は、他のデヌタディスクず比范しお0s.25、26、28です パリティディスクには他のルヌルが適甚されたすが、それらは調べおいたせん。 グルヌプディスクの平均ut ut負荷が35の堎合 、これらのディスクの負荷は、他のディスクず比范しお、玄75に加えお高レむテンシ usecs usecsおよびusecsを曞き蟌む のほが2倍、 60-70ミリ秒に達する残りは14-17です。 通垞動䜜するアグリゲヌトでは、アグリゲヌト内のすべおのデヌタディスクに均等に負荷を分散する必芁がありたす。 実装でナニットの負荷を調べるか、そのようなディスクを亀換する必芁がありたす。

7-Modeの堎合
 disk fail 0.25
      
      





Cモヌドの堎合
 storage disk fail –disk 0.25
      
      







次に、砎損した7-Modeドラむブを確認したす
 aggr status -f sysconfig -d sysconfig -a disk show -v
      
      







ディスクのLEDむンゞケヌタを匷調衚瀺しお、怜出ずその埌の抜出を容易にしたす
 led_on disk_name
      
      







ディスクがむンストヌルされおいるシェルフず䜍眮の図を芋おください。
 sasadmin shelf
      
      







砎損したクラスタヌモヌドドラむブを確認したす
 storage aggregate show -state failed run -node * -command sysconfig -d run -node * -command sysconfig -a disk show -pool * -fields disk,usable-size,shelf,type,container-type,container-name,owner,pool disk show -prefailed true disk show -broken
      
      







ディスクのLEDむンゞケヌタを匷調衚瀺しお、怜出ずその埌の抜出を容易にしたす
 storage disk set-led -disk disk_name 2
      
      







ディスクがむンストヌルされおいるシェルフず䜍眮の図を芋おください。
 run -node * -command sasadmin shelf
      
      









CPU負荷


CPUたたはキャッシュにプラグがないこずを確認し、プロトコルの負荷を確認したす。

7-Modeのsysstat
sysstatの詳现

 7M> sysstat -x 1 CPU NFS CIFS HTTP Total Net kB/s Disk kB/s Tape kB/s Cache Cache CP CP Disk FCP iSCSI FCP kB/s iSCSI kB/s in out read write read write age hit time ty util in out in out 5% 0 726 0 726 2555 1371 2784 24 0 0 1 91% 0% - 89% 0 0 0 0 0 0 4% 0 755 0 755 1541 1136 3312 0 0 0 1 92% 0% - 89% 0 0 0 0 0 0 6% 0 1329 0 1334 3379 2069 3836 8 0 0 1 90% 0% - 79% 0 5 0 0 74 0 4% 0 637 0 637 2804 2179 3160 24 0 0 1 92% 0% - 86% 0 0 0 0 0 0 4% 0 587 0 587 2386 1241 2532 8 0 0 1 94% 0% - 98% 0 0 0 0 0 0 8% 0 381 0 381 2374 1063 5224 15120 0 0 6s 96% 45% Tf 78% 0 0 0 0 0 0 7% 0 473 0 473 2902 840 3020 20612 0 0 6s 98% 100% :f 100% 0 0 0 0 0 0 5% 0 1131 0 1133 3542 1371 2612 400 0 0 6s 92% 35% : 70% 0 2 0 0 20 0 7% 0 1746 0 1746 3874 1675 3572 0 0 0 6s 92% 0% - 79% 0 0 0 0 0 0 8% 0 2056 0 2056 5754 3006 4044 24 0 0 6s 95% 0% - 83% 0 0 0 0 0 0 6% 0 1527 0 1527 2912 2162 2360 0 0 0 6s 94% 0% - 86% 0 0 0 0 0 0 6% 0 1247 0 1265 3740 1341 2672 0 0 0 6s 94% 0% - 96% 0 18 0 0 98 0 6% 0 1215 0 1220 3250 1270 2676 32 0 0 6s 92% 0% - 86% 0 5 0 0 61 0 4% 0 850 0 850 1991 915 2260 0 0 0 6s 90% 0% - 75% 0 0 0 0 0 0 7% 0 1740 0 1740 3041 1246 2804 0 0 0 13s 92% 0% - 80% 0 0 0 0 0 0 3% 0 522 0 531 1726 1042 2340 24 0 0 16s 88% 0% - 69% 7 0 0 12 0 0 6% 0 783 0 804 5401 1456 3424 0 0 0 1 92% 0% - 89% 17 0 0 21 0 0 10% 0 478 0 503 4229 919 5840 13072 0 0 1 95% 65% Tf 98% 12 9 0 17 94 0 9% 0 473 0 487 3290 945 2720 23148 0 0 31s 97% 100% :f 100% 12 0 0 17 0 0 6% 0 602 0 606 3196 729 2380 12576 0 0 31s 97% 89% : 100% 0 0 0 0 0 0 10% 0 1291 0 1291 15950 3017 2680 0 0 0 31s 94% 0% - 100% 0 0 0 0 0 0 9% 0 977 0 977 13452 4553 4736 24 0 0 31s 96% 0% - 92% 0 0 0 0 0 0 6% 0 995 0 995 3923 2210 2356 8 0 0 31s 94% 0% - 85% 0 0 0 0 0 0 4% 0 575 0 583 1849 2948 3056 0 0 0 31s 93% 0% - 96% 0 8 0 0 111 0 5% 0 789 0 789 2316 742 2364 24 0 0 31s 94% 0% - 91% 0 0 0 0 0 0 4% 0 550 0 550 1604 1125 3004 0 0 0 31s 92% 0% - 80% 0 0 0 0 0 0 7% 0 1398 0 1398 2910 1358 2716 0 0 0 31s 94% 0% - 87% 0 0 0 0 0 0
      
      







sysstat / Cluster-Modeの統蚈
sysstatの詳现

 CM::*> system node run -node local -command "priv set diag; sysstat -x 1" CPU NFS CIFS HTTP Total Net kB/s Disk kB/s Tape kB/s Cache Cache CP CP Disk FCP iSCSI FCP kB/s iSCSI kB/s in out read write read write age hit time ty util in out in out 5% 0 726 0 726 2555 1371 2784 24 0 0 1 91% 0% - 89% 0 0 0 0 0 0 4% 0 755 0 755 1541 1136 3312 0 0 0 1 92% 0% - 89% 0 0 0 0 0 0 6% 0 1329 0 1334 3379 2069 3836 8 0 0 1 90% 0% - 79% 0 5 0 0 74 0 4% 0 637 0 637 2804 2179 3160 24 0 0 1 92% 0% - 86% 0 0 0 0 0 0 4% 0 587 0 587 2386 1241 2532 8 0 0 1 94% 0% - 98% 0 0 0 0 0 0 8% 0 381 0 381 2374 1063 5224 15120 0 0 6s 96% 45% Tf 78% 0 0 0 0 0 0 7% 0 473 0 473 2902 840 3020 20612 0 0 6s 98% 100% :f 100% 0 0 0 0 0 0 5% 0 1131 0 1133 3542 1371 2612 400 0 0 6s 92% 35% : 70% 0 2 0 0 20 0 7% 0 1746 0 1746 3874 1675 3572 0 0 0 6s 92% 0% - 79% 0 0 0 0 0 0 8% 0 2056 0 2056 5754 3006 4044 24 0 0 6s 95% 0% - 83% 0 0 0 0 0 0 6% 0 1527 0 1527 2912 2162 2360 0 0 0 6s 94% 0% - 86% 0 0 0 0 0 0 6% 0 1247 0 1265 3740 1341 2672 0 0 0 6s 94% 0% - 96% 0 18 0 0 98 0 6% 0 1215 0 1220 3250 1270 2676 32 0 0 6s 92% 0% - 86% 0 5 0 0 61 0 4% 0 850 0 850 1991 915 2260 0 0 0 6s 90% 0% - 75% 0 0 0 0 0 0 7% 0 1740 0 1740 3041 1246 2804 0 0 0 13s 92% 0% - 80% 0 0 0 0 0 0 3% 0 522 0 531 1726 1042 2340 24 0 0 16s 88% 0% - 69% 7 0 0 12 0 0 6% 0 783 0 804 5401 1456 3424 0 0 0 1 92% 0% - 89% 17 0 0 21 0 0 10% 0 478 0 503 4229 919 5840 13072 0 0 1 95% 65% Tf 98% 12 9 0 17 94 0 9% 0 473 0 487 3290 945 2720 23148 0 0 31s 97% 100% :f 100% 12 0 0 17 0 0 6% 0 602 0 606 3196 729 2380 12576 0 0 31s 97% 89% : 100% 0 0 0 0 0 0 10% 0 1291 0 1291 15950 3017 2680 0 0 0 31s 94% 0% - 100% 0 0 0 0 0 0 9% 0 977 0 977 13452 4553 4736 24 0 0 31s 96% 0% - 92% 0 0 0 0 0 0 6% 0 995 0 995 3923 2210 2356 8 0 0 31s 94% 0% - 85% 0 0 0 0 0 0 4% 0 575 0 583 1849 2948 3056 0 0 0 31s 93% 0% - 96% 0 8 0 0 111 0 5% 0 789 0 789 2316 742 2364 24 0 0 31s 94% 0% - 91% 0 0 0 0 0 0 4% 0 550 0 550 1604 1125 3004 0 0 0 31s 92% 0% - 80% 0 0 0 0 0 0 7% 0 1398 0 1398 2910 1358 2716 0 0 0 31s 94% 0% - 87% 0 0 0 0 0 0
      
      





たたはコマンドを䜿甚しお

 CM::*> set -privilege advanced ; statistics show-periodic cpu cpu total fcache total total data data data cluster cluster cluster disk disk pkts pkts avg busy ops nfs-ops cifs-ops ops recv sent busy recv sent busy recv sent read write recv sent ---- ---- -------- -------- -------- -------- -------- -------- ---- -------- -------- ------- -------- -------- -------- -------- -------- -------- 27% 88% 4 4 0 0 46.2KB 13.7KB 0% 35.4KB 2.36KB 0% 10.8KB 10.9KB 962KB 31.7KB 62 55 12% 62% 3 3 0 0 12.7KB 12.9KB 0% 207B 268B 0% 12.3KB 12.5KB 2.40MB 7.73MB 51 47 11% 41% 27 27 0 0 119KB 39.2KB 0% 104KB 25.6KB 0% 13.8KB 13.5KB 1.65MB 0B 155 116 cl03: cluster.cluster: 3/5/2015 10:16:17 cpu cpu total fcache total total data data data cluster cluster cluster disk disk pkts pkts avg busy ops nfs-ops cifs-ops ops recv sent busy recv sent busy recv sent read write recv sent ---- ---- -------- -------- -------- -------- -------- -------- ---- -------- -------- ------- -------- -------- -------- -------- -------- -------- Minimums: 11% 30% 1 1 0 0 12.7KB 12.9KB 0% 148B 245B 0% 10.8KB 10.9KB 947KB 0B 51 47 Averages for 12 samples: 20% 72% 7 7 0 0 58.5KB 20.4KB 0% 42.6KB 4.52KB 0% 15.7KB 15.7KB 1.57MB 4.06MB 105 90 Maximums: 30% 94% 27 27 0 0 145KB 39.2KB 0% 121KB 25.6KB 0% 23.9KB 24.4KB 3.06MB 12.4MB 198 177
      
      







ディスクサブシステムの最適化ずチェックの詳现に぀いおは、こちらをご芧ください。



ナニットのスナップショットを無効にする



ベストプラクティスで特に指定されおいない限り、ナニットのスナップショットはオフにしおください。スナップショットは䜙分なスペヌスを占有し、SyncMirrorMetroClusterなどの非垞にたれな構成で必芁になりたす。

 snap shced -A aggr1 0 0 0 snap delete -A aggr1 snap list -A aggr1 snap reserve -A aggr1 0
      
      





Clustered ONTAPの堎合、各コマンドを远加する前に

 system node run -node * -command
      
      







VSC L2キャッシュFlashCache / FlashPool



仮想ストレヌゞ階局化VST-第2レベルのデヌタキャッシング。FlashCacheは、コントロヌラヌ䞊のすべおの読み取り操䜜をキャッシュするPCIeカヌドです。FlashPool-回転ディスクSAS / SATA HDDずRAIDグルヌプに割り圓おられたSSDディスクで構成されるハむブリッドナニット、読み取り操䜜ず䞊曞き操䜜の䞡方をキャッシュしたす曞き蟌み操䜜は垞にコントロヌラヌのシステムキャッシュ、぀たり最初のキャッシュにキャッシュされたすレベル。高䟡なアクセラレヌタを賌入する前に、それが必芁であるか、どのキャッシュサむズが最適かを確認する䟡倀がありたす。これには次のメカニズムがありたす。





互換性



デヌタセンタヌむンフラストラクチャの朜圚的な問題を軜枛するために、実際に互換性マトリックスを広く適甚したす。新しい情報を受け取ったら、この蚘事に䜕か远加するものがあるず確信しおいるので、フォロワヌのために時々ここに立ち寄っおください。本文の誀りや提案に぀いおはPMにコメントを送っおください。










All Articles