Habrapipleのリクエストにより...データセンターの詳細な説明

Habrapiple、友人、知人のリクエストに応じて、データセンターに関する詳細情報を投稿します。



それはすべて約2年前に始まり、パスタのプレートがあるイタリアンレストランに座っていました:)

アイデアは長い間、偉大な天才の苦しむ心の中でちらつきましたが、その後、道を見つけました。 少し後に、この不名誉の構築を開始する決定が下されました。 当初、 Irtysh Data Centerを作成する予定でしたが、計画は壮大でしたが、技術的な困難が非常に大きいため、決定が下されました。 Irtyshを「甘い」ために延期するには:)、 「Slavic」を取り上げました。



ちょっとした助け:プロジェクトデータを呼び出す方法を長い間考えていましたが、最終的にはグローバルではM9、M10、M5(MMTS)、再びStack(M1)の原則に基づいて「M77」であり、ロケールでは区別することを決定しました地理的特徴:)実際にそれが起こった、SlavyanskyはSlavyansky Boulevardにあり、IrtyshskyはIrtyshsky Driveにあります:)



最初は、独立した独立した2階建ての建物を自由に使用し、建物を選択して考え始めました。まず、すべてを外部委託し、「データセンター」の建設専門家を招待し、ロシア連邦のデータセンターの建設に携わるのは、「古い」メンタリティーの人々であり、業界の動向にあまり忠実ではなく、多くの場合、このビジネスの理解と理解が不十分です。約10か月の熟考とプロジェクト前の調査の後、私たちは そして、そのような手(利益はあなたのポケットの中に電気通信事業者、建設持株会社、および他の関連会社です)、私たちはデータセンターの建設業者だと考えました:)。 後に、私たちは優秀な会社Knuerr (ドイツ)とロシアの駐在員事務所の長に会いました。ロシアの代表事務所は、私たちが構築を開始し、すべてのシステムが「踊る」機器を提供してくれました。



危機の発生を予測して建設が開始されたため、開始の約3〜4か月前に段階的に建設と試運転が決定されたため、データセンター全体の基礎は最も重要な原則ごとに段階的に定められました。経済的およびその他の理由の両方で収益性が高い場合、各システムは、故障したり、予防のために故障した場合に、データセンター全体の運用に影響を与えないように作成する必要があります。ベンダーはこのように選択され、システムが設計され、機器が購入されましたなど



すべての応用技術の90%は、ロシア(基本的に世界の他の国に遅れをとっている)だけでなく、ヨーロッパとアメリカにとっても革新的です。 私たちは、言葉や高度な開発者のプロジェクターのランプにのみあるものを作成しました。 多くの微妙な点、質問、誤解などに直面しています。 その結果、Slavyanskyデータセンターの第1フェーズを作成しました。データセンターの各部分について詳細に説明します(次のドキュメントに基づきます:ドキュメントSP – 3-0092:(TIA-942 Standard、リビジョン7.0、2005年2月))。



1.データセンター、建物、地域の場所が自由に使えるようになったので、私はすぐに西洋の基準で私が好きではなかった点に到達しました:)

-別のタスク。

-1階;

-最大2t / m2(モノリシックビル)までの床の荷重;

-かさばるアイテムを移動できる幅の広い通路。

-高い天井(〜5m);

-エンジンルームに柱やその他の建築構造物がない;

-すべての壁はスペシャルで覆われています。 明るい色での粉塵の形成を最小限に抑える塗料;

-彼らは不必要に建設の初期段階で偽の床を放棄することを決めた、彼らは磁​​器の石器の床を作りました。

-機械室の部屋を管理室と技術室から分け、封じ込めゾーンを作成しました。

-ダイオードランプ(より多くの光、より少ないエネルギー)を使用することを決めた;

耐震安定性や他のナンセンスなどのナンセンスについては私は書きませんので、すべてが明確です:)



2.当初、テリトリー内に独自の配電変電所(RTP)があり、それぞれ異なるTPP(カテゴリー1)からの都市からの2つの独立した入力があります。 (念のため)モノリシックコンクリートチャネルを介して建物に2つのケーブルエントリを整理し、RTPにディーゼル発電機を追加し、RTDに適切な自動化(ABPなど)を提供しました。 繰り返しになりますが、最初の計画はエネルギー入力専用の部屋を作成し、その後このスキームを放棄し(D&Gは高価で愚かな)、各列の端のホールに直接電力設備を配置することを決定しました。 各電源キャビネットに対して、RTDからの2つの独立した入力が巻き上げられます。 彼ら自身がベンダーから発電所と自動化キャビネットを購入したかったが、次の問題に直面した。 企業全体の耐障害性が疑わしくなりました。 コンポーネントが電源キャビネットで故障した場合、交換のために非常に長い時間待つ必要があります(原則として、そのようなコンポーネントやアセンブリを倉庫に保管する人はいません。これを考えると非常に困難です)。私たち自身のプロジェクトによれば、すべてを自分でやったので、もしあれば問題なく購入でき、すぐに自分で交換できる主要ベンダーのコンポーネントだけを購入しました。

画像

画像



3.データセンターへの排熱は、この分野で働くすべての専門家にとって頭痛の種であり、フォーラムや会議、カロアおよびインテグレーターのオフィスでの議論の対象です:)これまで、このトピックに関する多くの研究がすでに実施されており、誰かがデータセンターを設置するというアイデアを思いつきましたはしけ、北極の人など。 など、私の意見では、最も最適なスキームはホット/コールドコリドーであり、最も簡単なものと思われますが、実装で独創的でシンプルな熱放散スキームを考案して作成したKnuerr開発者のおかげで、さらに進んでいますキャビネットと1つの「ボックス」内のホット/コールド廊下のシステム:)結果として、私たちは持っています。



今日、すべての設計者が標準的な放熱スキームを提供し、上げ床下などからの冷気の分配により、ラックとバストから最大10 kWの熱を除去しています! このオプションは、データセンタースペースとそのエネルギー容量が非効率的に使用されていたという意味で、1つの簡単な理由(D&G :)に適していませんでした(ところで、私たちは4 MWの電力を持っています)ユニークな開発。 その結果、キャビネットから18 kWの熱除去シ​​ステムを組み立てました(私の意見では、今後3年間は実際には必要ありません。3年後にモジュールを購入し、キャビネットで20〜22 kWを取得します)。

Acc。 システムは水(内部回路)、チラー/クーラーバンドル、冷媒を含む2番目の回路(チラー外部クーラーバンドル)によって冷却されます。システムの仕組みについては詳しく説明しません(長すぎて複雑です)。 しかし、本質は非常にシンプルで、密閉されたキャビネット内にホット/コールド廊下のシステムが実装されています。



機器は、物理的なほこりから保護されています。 アクセス、水分など

冷媒が入ったパイプが下から流れるため、キャビネットシステムは床の上に「上げられ」、満たされました。 キャビネットのスペースをさまざまなレベルに分割した構造:清潔な床のレベル、電気キャビネットとUPSの位置レベル(UPSはキャビネットごとに22 kWの設計のモジュール式でコンパクトなものとして選択されたため、障害が発生した場合にスムーズに電力を増やし、交換を迅速に行うことができます) 「大」システムとの違い)。

画像

画像

画像



すべてのチラーおよびポンプシステムは地下にあります(幸運なことに、当初は3階の地下駐車場が設計され、建物の下に建設されました:)

画像



4.通信チャネルは当然光ファイバです:)

それぞれ合計帯域幅160および320 Gb / sのMMTS-9およびMMTS-10への高速道路を使用すると、方向転換できます:)

これまでのところ、ネットワークはシスコのシステム機器上に構築されていますが、ベンダーを変更する傾向がありますが、それでも、tsiskaと高価は非常に高く、高速での作業の品質は、パンフレットやプレゼンテーションに記載されているものよりも少し遅れています(これは誰にとっても秘密ではありません)。 今日、私たちはさまざまなメーカーの機器をテストしていますが、特定の何かを検討したらすぐに、別の投稿として署名します:)

また、顧客の便宜のために、彼らはそれぞれ144本のファイバーでデータセンタービルに入り、それぞれコレクターにクラッチを入れました。 すべてのクライアントが自分のファイバーで私たちに連絡できます。



5.ケーブルシステムは電力とファイバーの両方の天井の下にあります。内部ネットワークインフラストラクチャ全体が光学で作られており、よりシンプルで便利で軽量です:)(銅はまだ重いです)、そして顧客は今日行っています頑固で、銅の上で与えることが愚かまたは不可能な広いチャネルを求めます:) 3次元トレイシステム(Defem Sweden)を使用し、非常に良い。 快適で美しい:)

画像

画像



これにより、600 m2の面積に前例のない容量を配置することができ、288のキャビネット(12096 U)を備えた機械室が作成されました。 この放熱方式により、キャビネットスペースとデータセンター領域を最大限の効率で使用できます。

ロシアには強力なサーバー機器をホストできる唯一のプラットフォームがありました。たとえば、1つの大きなTsiskまたは10、2つのサーバーがクローゼットにぶら下がっているという意味で、サーバーを備えた「スケルトン」があるデータセンターを十分に見ました。スペースの残りの部分は空であり、それほど多くのエネルギーをもたらす方法はなく、それほど多くの熱を除去する方法はありません:)今、そのような機会が現れました。 Acc。 今日までは利益がなかったプロジェクトや、その力のために単に無意味だったプロジェクトを実装できます。 これで、リソースを最適化できます。 クライアントとのコミュニケーションの経験から、10ラックを探している人は、5〜6ラックに機器を集めたときに非常に驚かされることがよくあります:)



誰かが質問がある場合は、書いて、尋ねてください、私は皆に喜んで答えます:)



ハブに写真をアップロードする方法を明確にするために掘られた別の敬意:)



All Articles