タグ

coolingに関するdannのブックマーク (7)

  • 増大する熱負荷に対応する水冷システム | ニデック株式会社

    近い将来、データセンターの熱対策は水冷システムが主流に 近年、ICTサービスの運用を支えるデータセンターでは、CPUGPU、ASICなどの高性能化により熱負荷が大きく増大し、お客様の発熱対策に対する要求は厳しさを増しています。Nidecでは、放熱ファンやヒートシンク、水冷などの多様な熱対策製品を組み合わせて最適なソリューションを提供しています。 近い将来、冷却システムの主流になると考えられているのが、水冷システムです。一般に300Wを超えるCPUでは、ヒートシンクやファン、空調などによる冷却システムでは不十分と言われています。300W-1000WのハイパワーCPUが正常な稼動を維持して演算処理効率を向上させるためには、水冷システムによる適切な発熱処理が必要と考えられます。 水冷システムの利点は冷却性能の高さだけではありません。水冷の電力消費量の低さは空冷に対する大きなアドバンテージの1つ

    dann
    dann 2024/04/16
  • https://www.vertiv.com/498ec3/globalassets/documents/white-papers/acs_cold_plate__leak_detection_and_intervention_white_paper_329948_0.pdf

  • データセンターのための液体冷却オプション

    お使いのアカウントは、このリンクへのアクセスが制限されています。 Vertivパートナーサポートにお問い合わせください:salescloudsupport@vertivco.com

    データセンターのための液体冷却オプション
  • NTT Com、GPUサーバー向け超高発熱対応DC環境の提供を開始

    NTT Com、GPUサーバー向けに30kW/ラックのデータセンター環境を提供 ~高信頼空調システムと充実したネットワーク環境を完備~ NTTコミュニケーションズ(以下、NTT Com)は2018年10月16日、「東京第8データセンター」において、最大発熱量を30kW/ラックに対応したデータセンター(DC)環境を用意した。これにより、GPU搭載サーバーをラックにフル搭載できるとしている。同DCの一部で2018年度第4四半期に提供を開始し、需要に応じて順次拡大するという。 NTT Comでは、AIをはじめ膨大な計算処理を必要とする技術のニーズが急速に高まり、これらを扱うGPUサーバーなどの運用が可能なDCの整備が急務になっている。しかし、一般的なDCのラックは通常のサーバーの発熱量である4~10kW/ラック程度を想定した設計となっており、例えば1台で3kW程度の高発熱型のGPUサーバーは、1

  • Microsoft Word - WP130_vol2.doc

  • [データセンターの熱管理編]サーバーの間にすき間を空けてはいけない

    データセンターのラックにおいて,上下のサーバーの間にすき間を空けて設置しているのを見かけることがある。すき間を空けることで風通しをよくして,サーバーに熱がこもりにくくなるようにする意図だろう。この方法は一見もっともらしいが,実はデータセンターのラックでやってはいけない。 サーバーは前面から冷気を吸い,背面から熱気を排出する。すき間を空けることこの流れが変わってしまう。図の左部分を見てほしい。これはサーバーの間にすき間を空けた場合に,空気がどう流れるかを表したものだ。背面に排出された熱気が前面に循環してしまっている。サーバーはこの熱気を前面から吸気するため,サーバーに冷気が流れない。つまり冷却できないことになる。この循環が続くと,いずれは熱暴走を起こす危険もあり得る。 熱気の循環を防ぐのに有効なのがブランク・パネルを使うことだ。ブランク・パネルとは,ラックのすき間に取り付けるパネルのことだ。

    [データセンターの熱管理編]サーバーの間にすき間を空けてはいけない
    dann
    dann 2018/12/29
  • 高密度サーバの 適用に起因する 熱の問題を 解決するための 10 の手順

    ピーター・ハナフォード 高密度サーバの 適用に起因する 熱の問題を 解決するための 10 の手順 White Paper # 42 ©2004 American Power Conversion. All rights reserved. この出版物の一部または全部を、著作権所有者の書面による許可な く、使用、複製、コピー、送信することや、性質を問わず情報検索システムに保存することは禁じられています。 www.apc.com Rev 2004-0 2 要約 今日ブレードサーバなど電力使用量の大きなサーバを 1 のラックに多数搭載 する際、データセンタ管理者は新しい問題に直面しています。サーバメーカ は、1のラックに多数サーバを設置した場合、1 あたり最高 20kW の冷却を 必要とする設計をしています。しかし、ほとんどのデータセンタの設計では、 平均してラック 1 あたり 2kW

  • 1