
水平温度は華氏米国です。
私たちの意見では、CRAHはコンピュータールームのエアハンドラー、つまりエアコンです。
同時に、昨年改訂されたASHRAE(米国暖房、冷凍、空調技術者協会)の推奨事項では、サーバーの入り口での作業範囲の上限27C を推奨しています 。
この状況は、私の「観察された実践」によってよく確認されています。
伝統的に、データセンターの所有者と運営者は、もちろん、露や雪がホールに降り始めるまで、「寒い-エレクトロニクスにとっては良い」というルールに導かれます;)
少なくとも21の飛躍的限界を超えるすべての余分な程度は、過熱によるサーバーハードウェアコンポーネントの死をもたらすと考えられています。
これは多くの場合、当たり前のことであると考えられており、議論されていません。
ただし、グリーンIT、またはデータセンターの省エネ技術に関する現在の傾向は、最適な動作温度でのサーバー機器の実際のニーズの問題を追い越すことはできません。
この問題の調査結果は、予想外のように思われるかもしれません。 データセンターの温度が22度を安定して下回る現在の状況は、機器の動作の観点からも、コンポーネントの動作寿命の観点からも最適ではなく、高温の影響の危険性が大幅に過大評価されていることが示唆されます。
そのため、Registerの伝統的なキャッチーな見出しの下で、The Registerの記事が出てきました:「 Intelはデータセンターが冷たすぎる -凍結した資産は現金の無駄だと言います 」-「Intelはデータセンターが冷たすぎると主張している-凍結した資産は無意味にお金を使います」
それにもかかわらず、トピックはまったく「黄色」ではありません。
データセンター機器の高温の危険性に関する業界の従来の再評価は、たとえば、896の同一ブレードサーバーが「制御」グループと「テスト」グループに均等に分割された最近のIntelの調査 (8キャビネット、各4ブレードシャーシ、各シャーシに14台のブレードサーバー、各サイトに合計448台)。 「制御」は、閉回路エアコンの助けを借りて従来の方法で冷却され、テストは、「オープン」スキームに従って、最小のダスト除去と湿度制御なしで、通常の「外部」空気で冷却されました。
この研究の目的は、費用対効果の高いデータセンターを構築し、冷却コストを削減する可能性を証明することでした(現代のデータセンターのコストにかなりの電力コストがあることは周知の事実です。エアコンに電力を供給するコストは、総エネルギー消費の4分の1から2分の1です)

ソース: http : //dashboard.imamuseum.org/node/830
垂直-キロワット、水平-12月の日。 冬は庭にあり、冷却コストは明らかに最小限です。 グラフはIntelテストには適用されず、データセンターの消費電力の典型的な比率の例としてのみ提供されます。
また:

出典: http : //www1.eere.energy.gov/femp/program/dc_energy_consumption.html
Intelの実験の場合、このような「条件付けされていない」データセンターの温度変動は32度まで上昇することがありましたが、コントロールグループと比較した障害率は0.5%をわずかに上回りました(4.46%対「従来の」データセンターの3.83% Intelは平均で、コントロールグループでは2.45%であり、一般に「統計的広がり」の範囲内です。
さらに興味深い状況は、ハードドライブの障害の温度依存性です。 たとえば、2007年に、会社のサーバーセンターでのハードドライブ障害の頻度と原因を調査しているGoogleエンジニアによってレポートが発行されました (約10万台のドライブのデータが処理され、調査は約9か月続きました)。
この研究の興味深い結果の1つは、データセンターの温度状況に関するASHRAEの推奨を間接的に確認しています。 そのため、Googleの研究者の観察によると、ハードドライブの温度が30度を下回ると、ハードドライブの故障確率が急激に上昇し、観測されたドライブグループの最低故障確率は40℃に相当しました。
動作温度が40度の場合(すべての測定はSMARTセンサーを使用して)、故障の確率は1%AFR(年間故障率、年間故障数)を超えず、50°Cに増加するとAFRが2%に倍増しました(データセンターでは高温は観測されませんでした) 。
しかし、温度を20℃に下げると、逆説的に故障の確率がほぼ10倍になり、最大10%AFRになりました。

グラフのヒストグラムバーは、特定の温度を持つディスクの相対的な数、t字型ストロークを持つポイント-特定の温度のAFR値とその統計的広がりを示し、特定の温度の「参加者」ディスクの数が減少するにつれて増加します。
高温(かなり!)での障害数の顕著な増加は、3年以上のディスクでのみ観察されました。

結論:
「寒いほど良い」アプローチは、それ自体が生き残った可能性があります。 この逆説的な一見した結論は、いくつかの統計結果によって確認されます。これは、おそらく、現代の機器の温度レジームの「弾力性」と「高温」(私たちの意見)の動作温度に耐える能力を過小評価していることを示唆しています。
さらに、データセンターの温度を上げることができる度に、電気代が直接節約されます。
ブログhttp://proitclub.ru/で最初に公開されました。