長期的な実隓-CROCクラりドぞのDell EMC ScaleIOの導入





Dell EMCに基づくScaledIOベヌスのScaleIOが数幎間、確実に、たたはそれ以䞊実行されおいた倧芏暡なテストむンストヌルをat笑したした。 圌らは膚倧な数の修正を行い、最終的にクラりドむンフラストラクチャの補品を完成させたした。 Storadzhは、HDDに基づく通垞の䜎速ストレヌゞずオヌルフラッシュアレむの高速゜リュヌションずの間の非垞に芁求の倚いニッチを埋めたす。 さらに、Software Definedの仕様により、フォヌルトトレラントストレヌゞをほずんど枝付きのスティックから収集できたす。 ハヌドりェアを節玄するこずはたったく意味がないこずを念頭に眮いおください。ラむセンスのコストが節玄のメリットを䞊回りたす。



芁するに、本日、ScaleIOを実装し、目を閉じお熊手を歩いた方法を説明したす。 100のアヌキテクチャヌ機胜ずクラりドぞの統合に぀いお。 そしお、もちろん、それは負荷テストに぀いおです。 詳现に぀いおは、猫ぞようこそ。



「AWSのように」



前述のように、CROCクラりドには、「暙準」ず「フラッシュ」の2皮類のディスクストレヌゞがありたす。 1぀目は、磁気ディスクを備えたアレむに基づいお構築され、ストレヌゞを備えたLUNはクラりドサヌバヌ䞊に提瀺され、クラスタヌ化されたファむルシステムに収集されたす。 次に、2番目のタむプは、「バむオリンアレむ」ずしお狭い円で知られるオヌルフラッシュアレむに基づいお構築されたす。そのLUNは、ハむパヌバむザヌを䜿甚しおクラりドサヌバヌに盎接提瀺され、パフォヌマンスを最倧にするためにVMに盎接ルヌティングされたす。



これらの各゜リュヌションでは、運甚䞭にさたざたな問題が発生したした。 倚数のLUNより正確には、サヌバヌぞの゚クスポヌトを持぀「アレむバむオリン」は、APIリク゚ストぞの応答時間を劇的に増加させたす。 特に重症の堎合、圌らは䞀般的に生呜の兆候を芋せなくなりたす。 LUN自䜓のプレれンテヌション時間も倧幅に増加したす。 負荷が増加する磁気ディスクに基づくクラスタヌFSは、特にスケヌリングの詊行䞭に安定性を倱いたす。 プラス数回は鉄を倱望させた。



どちらのタむプのストレヌゞも、最小限の抜象レむダヌで、かなり保守的に構築されおいたす。 その結果、埓来の「クラりド」゜リュヌションよりも保守が倧幅に難しくなり、さらにスケヌラビリティずフォヌルトトレランスの問題がここに远加されたす。 そのため、゜フトりェア定矩ストレヌゞSDS゜リュヌションを新しいタむプのストレヌゞの基盀ずしお怜蚎するこずが決定されたした。これらの問題のほずんどは、アヌキテクチャレベルですでに解決されおいたす。



垂堎で入手可胜な倚くのSDS゜リュヌションを比范したした。その䞭には、Dell EMC補品に加えお、CephRBD、GlusterFS、MooseFS、LizardFSなどの補品がありたした。 機胜に加えお、私たちにずっお重芁な芁玠は、磁気ディスク䞊の゜リュヌションのパフォヌマンスでした。 シヌケンシャルIO操䜜ずランダムIO操䜜の䞡方で、他の誰よりも先だったのは、このパラメヌタヌのScaleIOです。 同僚のRoman RPOkruchin は圌の蚘事ですでにこの補品に基づく興味深い゜リュヌションに぀いお曞いおいたす「 急いで叀いサヌバヌを捚おないで、1時間で高速むヌサネットストレヌゞを組み立おる こずができたす 」および「 囜内サヌバヌからフォヌルトトレラントデヌタストレヌゞシステムを䜜成する方法 。



今埌、パフォヌマンステストの結果によるず、新しいストレヌゞタむプをAWSの高速な「 スルヌプット最適化HDDst1 」タむプずしお䜍眮付けるこずにしたしたが、最小ディスクサむズ制限を32 GBに枛らし、ブヌトディスクずしお䜿甚できるようにしたした。 結果ずしお埗られる゜リュヌションの柔軟性のため、新しいタむプのストレヌゞを「ナニバヌサル」st2ず呌び、AWSからの改良バヌゞョンずしお䜍眮付けたした。



建築



たず、Dell EMC ScaleIOクラスタヌの構成芁玠に぀いお説明したす。





䞀般に、各サむトのクラりド内に構築されたScaleIOクラスタヌは、ほが次のように衚すこずができたす。





クラりドには、仮想マシンのディスクに関連するすべおの操䜜の実行を制埡するSCストレヌゞコントロヌラヌサヌビスがありたす。 圓瀟が䜿甚するさたざたなストレヌゞシステムでのLUNの䜜成、必芁なハむパヌバむザヌぞのさらなる゚クスポヌト、サむズの増加、削陀、およびデバむスのラむフサむクルの残りの郚分。 このアヌキテクチャで最も論理的な゜リュヌションは、これらのサヌバヌにMDMクラスタヌを展開するこずでした。 物理的に、SCおよびMDMは、OSずしおCentOS 7.2を搭茉したDell EMC PowerEdge R510サヌバヌ䞊に存圚したす。 たた、このグルヌプの2぀のサヌバヌにはScaleIOゲヌトりェむがあり、クラスタヌを管理するためのREST APIを提䟛したす。 誰もがアクティブ状態ですが、クラりドはアクティブバックアップモヌドで構成されたバランサヌを介しおアクセスしたす。



運甚前のテストのために、12個のSDSのプヌルを準備したした。各4個のSASディスク-Seagate 12Gb / s 10K 1.8Tb 2.5 "。次に、サヌバヌが地理的に1぀のデヌタセンタヌにあるため、すべおのSDSが1぀の保護ドメむンに远加されたした。その埌、SDSはフォヌルトセットにグルヌプ化されたした。フォヌルトセットは非垞に興味深い抂念であり、同時に障害が発生する可胜性が高いクラスタヌにサヌバヌを分割するこずを意味したす。これは、むンストヌルされたOSの機胜ず萜䞋する可胜性の高い゚リアに1぀のラック eteoritov。デヌタは1぀のリスクグルヌプに陥るのを避けコピヌするようなAの方法でミラヌリングされたす。



フォヌルトセットを䜿甚する堎合は、スペアスペヌスに合蚈rawボリュヌムの䞀定の割合を割り圓おる必芁もありたす。 これは、最倧のフォヌルトセットに等しい予玄スペヌスで、クラスタヌの再構築䞭にディスク/サヌバヌ/フォヌルトセットが倱われた堎合に䜿甚されたす。 したがっお、サヌバヌラック内のSDSの堎所に埓っおサヌバヌをグルヌプにグルヌプ化したす。これにより、たずえば、ラックの電源障害が発生した堎合など、1぀のフォヌルトセット内のすべおのサヌバヌが倱われた埌でも、デヌタのコピヌの可甚性が保蚌されたす。 ただし、 TIER-III認定を受けたデヌタセンタヌでは、この可胜性は非垞に小さいです。 テストされたプヌルの合蚈サむズ





すべおのSDSは、ハむパヌバむザヌNCおよびSDCシステムコンバヌゞェンスのバヌゞョンを備えたノヌド䞊にありたす。 圌らは、ハむパヌバむザヌを備えたサヌバヌにSDSを意識的に配眮するこずにしたした。 最初のテストでは、ディスクを䜿甚しおサヌバヌに発生する負荷を監芖し、顕著な効果を怜出しようずしたしたが、CPU、RAM、OSの負荷は無駄でした。 䜕が嬉しい驚きでしたか。 たた、アむドルCPUを備えたディスク専甚のサヌバヌを維持するこずはあたり有益ではなく、将来的にはSDSの数を増やすこずが想定されおいるため、゜リュヌションは自然に生たれたした。



クラむアントSDCはそれぞれ、ScaleIOディスクをVMのブロックデバむスずしお提䟛するハむパヌバむザヌを備えたサヌバヌです。 物理的に、SDCずSDSは同じCentOS 7.2のDell EMC PowerEdge R720 / R740サヌバヌにありたす。 ネットワヌクコンポヌネントに぀いおは、デヌタは56 Gb / s InfiniBandIPoIBを介しお送信され、制埡は1 Gb / sむヌサネットです。



クラスタヌ党䜓を組み立おお、それが機胜するこずを確認したら、テストを進めたした。



䞀次詊隓ず分析



初期のパフォヌマンステストは、ハむパヌバむザヌず仮想マシンの参加なしで実斜されたした。ボリュヌムは空のサヌバヌに接続され、IOPSずMbpsのパフォヌマンスの䞊限を芋぀けるために容赊なくロヌドされたした。 途䞭で、さたざたな条件䞋での最倧遅延を決定したした。空のクラスタヌ、障害が発生したなどです。さたざたな結果が埗られたため、特に最倧負荷の堎合、磁気ディスクは最も安定しおいたせん。 しかし、私たち自身のクラスタヌパフォヌマンスにはおおよその制限がありたす.78.5 TBのrawボリュヌムを備えた48個の1.8 TB SAS 12 Gb / s 10Kドラむブのテストクラスタヌの堎合、最も耇雑なテストでの最倧IOPS倀は玄8-9千IOPSでした埌に技術がありたすテストおよびその他の詳现。 将来的には、これらの指暙にすでに泚目しおいたす。



これず䞊行しお、実皌働環境のストレヌゞシステムずScaleIOに転送する予定の仮想ディスクの負荷を分析したした。 2぀のサむトから、3か月間の以䞋の平均を受け取りたした。







䞀方では、曞き蟌みは、操䜜数の45/55の比率での読み取りよりも頻繁に行われ、他方では、読み取りは倧きなブロックで発生し、ストレヌゞシステムに30パヌセントたたはさらに70パヌセントの負荷をかけたす。 実際のサヌバヌの負荷をできるだけ正確に再珟するために、仮想マシンでテストする際に、取埗したむンゞケヌタヌを将来䜿甚したした。



展開がスムヌズに進たない



恐怖の安い郚屋暗いどこでも熊手。



クラりドチヌムの各グルヌプは、新しいタむプのストヌリヌの導入䞭に頭痛がしたした。 それにもかかわらず、そのようなタスクず困難は垞に玠晎らしい経隓です。 最も重芁な問題をリストしようずしたした。



ScaleIOのAPIクラむアント



「アレむバむオリン」のAPIを䜿甚した興味深い経隓があるため、゜リュヌションを遞択する段階で、負荷ず䞊列リク゚ストの䞋で各APIの操䜜性をテストするこずにしたした。 たた、SCストレヌゞコントロヌラヌを含むほずんどのクラりドサヌビスはPythonで蚘述されおいるため、゜リュヌションに同じ蚀語のAPIクラむアントが含たれおいるこずが重芁でした。



そしお、ここで問題が発生したした。ScaleIOAPIクラむアントはバヌゞョン1.32のみであり、バヌゞョン2.0を既にテストしたした。 テストを少し延期し、独自のAPIクラむアントpyscaleioを䜜成する必芁がありたした 。 基本的なCRUD操䜜だけでなく、䞀郚のAPI゚ンティティ、応答の怜蚌、クラむアントむンスタンスの管理のための本栌的なORMも実装するこずが刀明したした。 そしお最も重芁なこずは、すべおのコヌドが単䜓テストでカバヌされ、機胜テストが動䜜䞭のScaleIOクラスタヌで実行できる最も重芁なAPI操䜜のために蚘述されたこずです。



もちろん、APIのいく぀かのバグを芋぀けるこずができたした。 たずえば、ディスクのIO制限を蚭定調敎するこずはできたすが、 「iopsLimit0は10より倧きい数倀でなければならない」ため、削陀できたせん。 ただし、SDSレベルでは調敎を䜿甚しなかったため、これは重芁ではありたせんでした。 䞀般に、負荷のかかったScaleIO APIは優れおいるこずが蚌明されたした。䜜成された倚数のディスクや䞊列リク゚ストに問題はありたせんでした。



調敎



䞊蚘の最初の負荷テスト䞭に、ScaleIOクラスタヌパフォヌマンスのおおよその制限が明らかになり、顧客のディスクを制限する方法ず新しいタむプのストレヌゞを配眮する方法を決定する必芁がありたした。 結果を分析した埌、IO操䜜のディスクを500 IOPSに制限し、ディスクのサむズに応じおスルヌプットを制限するこずにしたした。 AWSは、「スルヌプット最適化HDD」ドラむブに぀いおも同じこずを行いたす。 ディスクサむズが増加するず、制限は自動的に再蚈算されたす。



たずえば、104 GBのディスクの堎合ScaleIOのディスクは8 GBの倍数である必芁がありたす-システムの制限

サむズGiB





MBPSベヌスラむン





最倧MB / s





104





0.25





26





これらの制限に基づいお、仮想マシン内のディスクは、53 KiBを超えるブロックサむズで曞き蟌みを開始するたで500 IOPSを䜿甚できたす。 ディスクサむズが104 GiBの特定の䟋

MBpsスルヌプット/ IOあたりのKB* 1024 =最倧IOPS

26/53 * 1024 = 502 IOPS

15.6 / 32 * 1024 = 500 IOPS

26/64 * 1024 = 416 IOPS

26/128 * 1024 = 208 IOPS



さらにパフォヌマンスが必芁な堎合は、ディスクを増やす必芁がありたす。 たた、小さなディスクでより高いパフォヌマンスが必芁な堎合は、IOPSを保蚌し、それらを倉曎できるフラッシュストレヌゞのタむプに切り替える必芁がありたす。 幞いなこずに、クラりドはストレヌゞタむプ間のディスクのラむブマむグレヌションを提䟛し、これにより寿呜が倧幅に簡玠化されたす。



シンディスクず空



そしお、他のタむプのストレヌゞから実隓的なScaleIOぞのラむブマむグレヌションのテスト䞭に、ディスクが「シック」になり、完党に割り圓おられたしたが、「シン」に䜜成されたしたが、元のディスクはデヌタで半分未満でした。



リ゜ヌスの非効率的な浪費は垞に悲しいこずなので、私たちはリヌクの原因を探し始めたした。



クラりドはQEMU-KVMをハむパヌバむザヌずしお䜿甚しおいるため、問題を䜎レベルで調査できたす。 ハむパヌバむザヌのブロックデバむスドラむバヌは、BLKDISCARDシステムコヌルを行い、ディスク内のスペヌスを割り圓おるこずにより、効率的にれロをデバむスに曞き蟌むこずができたす。 ただし、BLKDISCARD操䜜のサポヌトに加えお、ブロックデバむスはBLKDISCARDZEROESオプションのサポヌトも必芁です。 そうでない堎合、BLKDISCARDが呌び出されたブロックから読み取るず、れロ以倖が返される堎合がありたす。



ScaleIOディスクはBLKDISCARDZEROESオプションをサポヌトしおいたせんでした。 ただし、ScaleIOディスク党䜓でBLKDISCARDを実行するず、スペヌスは正しく割り圓お解陀されたす。 ScaleIOでは、BLKDISCARDZEROESのセマンティクスが特別な方法で䜕らかの方法で実装されおいるか、フラグが単玔に誀っお蚭定されおいたす。 Dell EMCフォヌラムで 、圌らはBLKDISCARDZEROESセマンティクスが完党にサポヌトされおいないこずを提案したした。れロを効果的に曞き蟌むには、BLKDISCARD芁求は1MiBの倍数でなければなりたせん。



問題の解決策が芋぀かりたしたが、れロの効果的な蚘録のこの特定のセマンティクスをハむパヌバむザヌに「教える」こずが残っおいたした。 このため、 XEの同様の動䜜ず同様に、QEMU-KVM ブロックデバむスドラむバヌに倉曎が加えられたした 。 倚くの堎合、ハむパヌバむザヌにさたざたな線集を行いたす。ほずんどの堎合、これらは新しいバヌゞョンたたはアップストリヌムからのバックポヌトですが、今回はこれらが独自の倉曎であり、非垞に満足しおいたす。 珟圚、ディスクのラむブ移行䞭に、クラスタヌスペヌスが効率的に消費されたす。



無効ですか



曎新されたハむパヌバむザヌを䜿甚したラむブマむグレヌションの再テスト䞭に、もう1぀の問題に気付きたした。移行埌の゜ヌスディスクずタヌゲットディスクが異なり、ランダムな堎所-最初のブロックで、次に䞭倮でした。 ハむパヌバむザヌでの最近のドラむバヌ線集、元のディスクむメヌゞの敎合性、蚘録時のペヌゞキャッシュの䜿甚を再確認する必芁がありたした。 問題を特定するこずは非垞に困難でしたが、数時間でなんずかしお、すべおの無関係な芁玠を埐々に排陀したした。 新しいシンディスクを䜜成し、れロが先頭にあるこずを確認し、先頭にいく぀かのパタヌンを曞き蟌んでから、BLKDISCARDでディスクの先頭の割り圓おを解陀し、もう䞀床詊したずころ、同じ蚘録されたパタヌンが衚瀺されたした。



スペヌスは割り圓おられおいたすが、デヌタは残っおいるこずがわかりたす。 これはバグに非垞に䌌おいるずいう事実にもかかわらず、結論に急いでドキュメントを読み盎さない方が良いです。 たた、ScaleIOのストレヌゞプヌルにはオプション「れロパディングポリシヌ」があり、最初の曞き蟌み時にセクタヌをれロで埋めお、非垞に倧切なれロを読み取るこずができるずしおいたす。 デフォルトでは、このオプションは無効になっおおり、物理ディスクがプヌルに远加されおいない堎合にのみ倉曎できたす。 実皌働環境でのScaleIOのむンストヌルは既にアセンブルされおおり、準備ができおおり、積極的にテストされおいるため、プヌルを再アセンブルする必芁がありたす。



もちろん、未割り圓おブロックぞの最初の曞き蟌み操䜜䞭にれロを曞き蟌む远加の操䜜は、パフォヌマンスに圱響するはずです。 この効果を評䟡するために、負荷テストのケヌスの䞀郚を繰り返し、最初の蚘録で最倧15の劣化が芋られたしたが、SDSの負荷は倉化したせんでした。



したがっお、独自の蚭蚈のドラむバヌは、クラスタヌの構築における独自のミスを芋぀けるのに圹立ちたした。 プヌルを再構築しお必芁なオプションを有効にするず、すべおが正垞に機胜したした。



デバむス名



前述のように、SDSを搭茉した各サヌバヌはハむパヌバむザヌでもあり、その䞊に倚数のVMがありたす。 これは、サヌバヌ䞊のブロックデバむスの総数が非垞に倚くなる可胜性があり、さらに、仮想マシンを移行したり、ディスクを接続したり切断したりできるため、非垞に頻繁に倉曎される可胜性があるこずを意味したす。



これらすべおのディスクの䞭で、ScaleIO甚に提瀺されたデバむスを匷調衚瀺する必芁がありたす。 / dev / sdxなどの短い名前で远加した堎合、VMの断続的なデバむスの埌にディスクが远加された堎合、再起動埌にこの名前が倉曎され、ScaleIOディスクが倱われたす。 その結果、プヌルに再床远加する必芁がありたす。これは、各メンテナンス䜜業の堎合にバランスを取り盎すこずを意味したす。 圓然、これは私たちにはあたり適しおいたせん。



ScaleIOプヌルを収集し、仮想マシンのない空のサヌバヌで最初のテストを行いたした。 これは、メむンプヌルの増加を蚈画し始め、SASディスクの新しいバッチを埅っおいるずきにのみ考えたした。



そのような状況を避ける方法は ブロックデバむスぞのシンボリックリンクを䜿甚できたす。



# udevadm info -q symlink /dev/sdx disk/by-id/scsi-36d4ae5209bf3cc00225e154d1dafd64d disk/by-id/wwn-0x6d4ae5209bf3cc00225e154d1dafd64d disk/by-path/pci-0000:02:00.0-scsi-0:2:2:0
      
      





RedHatのドキュメントには、SCSIデバむスを確実に識別するために、システムに䟝存しない識別子-WWIDWorld Wide Identifierを䜿甚する必芁があるず曞かれおいたす。 さらに、これは「配列バむオリン」からブロックデバむスを提瀺するずきにそのような識別子を䜿甚するため、私たちにずっおはニュヌスではありたせん。 ただし、非RAIDモヌドデバむスパススルヌ、JBODでは䜿甚できないRAIDコントロヌラヌを介しお接続された物理ディスクを䜿甚するため、状況は耇雑です。 たた、MegaCliを䜿甚しお各物理ディスクからRAID-0を収集する必芁がありたす。MegaCliの再構築は、新しいWWIDを持぀新しいSCSIデバむスであるため、䜿甚するのは実甚的ではありたせん。



PCIバス䞊の物理ディスクを䞀意に識別するデヌタを含むシンボリックディスク/バむパスパスリンクを䟵害しお䜿甚する必芁がありたした。 ディスクはすでに誀っお入力されおいたため、オンデュヌティ管理者は各物理ディスクをScaleIOプヌルぞの新しいパスに远加し、数十時間クラスタヌの再バランスの進行状況バヌをa敬の念を抱かせる必芁がありたした。



VM内のパフォヌマンステスト



ScaleIOディスクはVMのディスクずしお䜿甚される予定であったため、開発チヌムからの倧きなリリヌスを埅ち、䞊蚘の埅望の改善を受け取りたした。 たた、亀換可胜なストレヌゞの初期テストず負荷の分析の結果を考慮しお、すでに仮想マシン䞊にあるScaleIOディスクのテストを開始したした。



アルゎリズムは次のように遞択されたしたCentOS 7.2䞊の30台の仮想マシン、128 GB ScaleIOディスクが各秒ブロックデバむスに接続されそれぞれ32 Mbpsおよび500 IOPSの制限がありたす、1秒ごずにメトリックを削陀しお監芖するための1぀のZabbixサヌバヌ別のVMは、4kブロックで連続的に曞き蟌みを続け、そのレコヌドが500 IOPSを䞋回るずリ゜ヌスが䞍足しおいるこずを通知したす。 特定の数のテストVMで、同じパラメヌタヌを䜿甚しおfioナヌティリティでテストを同時に実行し、ScaleIO GUIずテストZabbixを芳察したす。 Fioの起動オプション



 fio --fallocate=keep --ioengine=libaio --direct=1 --buffered=0 --iodepth=16 --bs=64k,32k --name=test --rw=randrw --rwmixread=45 --loops=2 --filename=/dev/vdb
      
      





10個のVMの負荷を持぀ScaleIO GUIで、実皌働ストレヌゞの平均負荷をほが正確にシミュレヌトしたす。





Zabbix







各VMは、玄束されたIOPSずMB / sを受け取りたす。テストキュヌの深さが指定されおいるため、埅ち時間は長くなりたす。 iodepth = 1の堎合、レむテンシは玄1.6-2ミリ秒です。これは、仮想化レむダヌを考えるず、かなり良奜です。 ちなみに、IOPS、レむテンシ、およびストレヌゞパフォヌマンスに぀いおの䞀般的な蚘事IOPS、レむテンシ、およびストレヌゞパフォヌマンスの理解に぀いおの良い蚘事をアドバむスできたす。



パフォヌマンスの圱響ず䜎䞋をチェックするスタンドアロンVMのグラフでは、テストの党期間にわたっお暙準からの逞脱はありたせんでした。



次に、同時に曞き蟌む仮想マシンの数を埐々に増やし、他のVMのドロヌダりンがただ開始されおいないずきに、玄9000 IOPSず800 Mbpsのパフォヌマンス制限に達したした。 これらの数倀は、VMを䜿甚せずにクラスタヌをテストしたずきに埗られた数倀ずほが䞀臎したため、珟圚のディスクの数ず特性に぀いおは正垞であるず考えたした。



これらのテストの埌、クラスタヌの拡匵により生産性がどのように向䞊するかを理解するこずにしたした。 2぀のSDSを撀回し、各ノヌドを远加しお戻すずきにパフォヌマンスを再枬定し始めたした。 予備的な結論ずしお、クラスタヌに新しい各SDSを远加するず、IOPS / Mbpsの䞊限が盎接比䟋しお増加するこずが確立されたした。 したがっお、䜿甚可胜なボリュヌムが玄5〜6倍になるたで新しいディスクが届くのをすでに埅っおいるので、新しいパフォヌマンスむンゞケヌタずスマヌトスロットルを備えた珟圚の運甚ストレヌゞのピヌク負荷は怖くありたせん。



別のテストケヌスはフォヌルトトレランスでした。サヌバヌからドラむブを削陀し、同じフォヌルトセット内のサヌバヌ党䜓をオフにしお、他のがらくたを䜜成したした。 ケヌブルをaで切断しない限り。 クラスタヌに障害は発生せず、デヌタは匕き続き利甚可胜であり、パフォヌマンスはほずんど䜎䞋したせんでした。1分間のIOPSは10〜15䜎䞋したした。 䞻なこずは、正しい再構築/リバランスポリシヌを遞択するこずでした。これは、次のコマンドによっお蚭定されたす。



 scli --set_rebalance_policy scli --set_rebuild_policy
      
      





SDSに接続されおいる各ディスクのIO数ずMbpsのリビルド/リバランス垯域幅の制限に焊点を圓おたした。



おわりに



珟圚、クラスタヌは、顧客ではなくそれ自䜓で発生する可胜性のある問題や゚ラヌを最倧限に把握するために、内郚アカりントでパむロットテストを行っおいたす。 Cloud Servicesの䜜業における最埌の小さな゚ラヌを修正した埌、すべおのお客様のディスクを䜜成するための新しいタむプのストレヌゞ-ナニバヌサルが利甚可胜になりたす。



クラりドぞのデモアクセスを取埗するか、以䞋の連絡先で質問するこずができたす。



参照資料






All Articles