Какова правильная температура для серверной комнаты?

63

Когда я работал в нашей серверной комнате, я заметил, что было очень холодно.

Я знаю, что серверная комната должна быть холодной, чтобы компенсировать перегрев серверов, но, возможно, она слишком холодная.

Какова подходящая температура для хранения серверной комнаты?

freddiefujiwra
источник
1
По-разному. Многие современные серверы вполне довольны рабочей температурой 45 градусов Цельсия. USV должны выходить из строя - баттерам это не нравится. Но для сервера ... это может быть хорошо. Старые машины задыхаются от этой температуры.
TomTom

Ответы:

53

Рекомендации по серверной комнатной температуре сильно различаются.

Это руководство говорит, что:

Общие рекомендации предполагают, что вы не должны опускаться ниже 10 ° C (50 ° F) или выше 28 ° C (82 ° F). Хотя это кажется широким диапазоном, это крайности, и гораздо чаще поддерживать температуру окружающей среды около 20-21 ° C (68-71 ° F). По разным причинам это иногда может быть непростой задачей.

Это обсуждение Slashdot имеет множество ответов, но большинство из них находятся в диапазоне, указанном выше.

Обновление : как другие прокомментировали ниже, Google рекомендует 26,7 ° C (80 ° F) для центров обработки данных.

Также Американское общество инженеров по отоплению, охлаждению и кондиционированию воздуха (ASHRAE) недавно обновило свой рекомендуемый диапазон температур от 18 ° C до 27 ° C (64,4 ° F-80,6 ° F).

Однако эта статья еще раз подчеркивает, что до сих пор нет единого мнения по этому вопросу. Как уже упоминалось в статье, я хотел бы подчеркнуть, что:

... подталкивание термостата выше может также дать меньше времени для восстановления после сбоя охлаждения, и это подходит только для компаний, которые хорошо понимают условия охлаждения на своем предприятии.

В большинстве компаний IMO не было бы такого глубокого понимания условий охлаждения, и поэтому в условиях малого бизнеса было бы безопаснее управлять помещениями немного прохладнее.

NB. Важно отметить, что в помещении сервера / данных необходимо учитывать гораздо больше факторов, чем, например, температура, воздушный поток и влажность, а также важные проблемы.

mundeep
источник
1
Google фактически рекомендует даже увеличить его до 80 ° F для экономии энергии. Там хорошая статья здесь: datacenterknowledge.com/archives/2008/10/14/...
gharper
1
Спасибо, я обновлю ответ, чтобы упомянуть, что мой первоначальный ответ был более ориентирован на повседневные серверные комнаты небольших офисов - где ИМО может потребоваться больше свободы в случае сбоя охлаждения (или больше внимания уделяется потоку воздуха и т. Д.)
mundeep
36
Важно помнить, что Google работает по модели ожидаемого сбоя - вместо дорогих отказоустойчивых серверов, как у большинства компаний, вместо этого Google использует высоко настраиваемое отказоустойчивое программное обеспечение. Google полностью ожидает, что его серверы умрут на регулярной основе (но для программного обеспечения, чтобы обойти сбой). Таким образом, в модели затрат Google может иметь смысл эксплуатировать свои серверные комнаты под углом 80 градусов, потому что увеличение (очень дешевых) отказов оборудования легко компенсируется экономией энергии. Стоит ли нескольким мертвым серверам по $ 6000 экономия электроэнергии в вашей компании?
Дэвид
что не так с <50 ° F? Мне любопытно, потому что я знаю пару центров обработки данных в «экстремальных» условиях, которые просто выходят наружу для охлаждения ... а кто-нибудь помнит Kryotech? первая компания, получившая 1 ГГц потребительские ПК, но переохлаждение процессоров Athlon 600 МГц до -40 °;
Уоррен
10

Лучшие практики Google для центров обработки данных рекомендуют 80 градусов:

Повышение температуры холодного коридора снизит потребление энергии на объекте. Не пытайтесь пробежать свой холодный проход в 70F; установите температуру на уровне 80F или выше - практически все производители оборудования позволяют это.

Мы бежим в 72, но опять же я не совсем верю, что наша собственная комната была спроектирована с учетом воздушного потока.

jldugger
источник
8

Как уже говорили другие, где-то в 70-х F это хорошо. Тем не менее, еще более важно убедиться, что стойка и оборудование в ней могут «дышать». Если горячий воздух задерживается в стойке - или в корпусе сервера - тогда низкая температура окружающей среды не принесет никакой пользы.


источник
4

Моя серверная комната настроена на 69 градусов. У нас есть один кондиционер, который обслуживает эту комнату, и он работает 24/7, чтобы держать комнату на 69 градусов круглый год.

GregD
источник
4

Все серверные комнаты, которые я видел, обычно находятся между 20 ° C и 25 ° C, но из опыта я заметил, что аппаратное обеспечение более чувствительно к изменениям, чем заданная температура. Я часто видел сбой оборудования после, скажем, 4-5 ° C, даже если он составляет от 20 до 25.

Таким образом, стабильность является ключевым фактором, а также поток воздуха, конечно.

anto1ne
источник
4

18 ° C (65 ° F). Это немного холоднее, чем должно быть, но если что-то не получается, это дает нам несколько драгоценных дополнительных минут, чтобы среагировать, прежде чем станет невыносимо жарко.

Командир Кин
источник
2

Помните, что рекомендация Google в отношении 80 ° F практически не включает в себя отключение центра обработки данных, когда он перегревается из-за неожиданной нагрузки или сбоя кондиционера. Они также включают в себя больший контроль воздушного потока над критическими компонентами.

Карлито
источник
1

Нам нравится, чтобы у нас было между 19 и 23 ° C, а аварийные сигналы - при 28 ° C - мы находимся на уровне блейда 98% HP, поэтому в случае, когда мы достигаем этого уровня тревоги, некоторые серверы / корпуса «выключают свой фитиль», чтобы снизить общее энергопотребление ( это называется термологическим).

Chopper3
источник
1

По моему опыту, это зависит от оборудования. Я знаю, что в одной компании было три серверных комнаты. Один был около 80 ° F, другой, с меньшим количеством серверов, был около 72 ° F, а третий, только с двумя серверами, был около 65 ° F. За все время, что я там находился, у меня никогда не было проблем, но, как уже говорили другие, 75 ° F или чуть ниже, вероятно, лучше, так как это дает немного места для локтя, если AC выключается.

Джошуа Нурчик
источник
0

Все, что выше 30 ° С на входах воздуха, которые мы обнаружили, вызывает температурные предупреждения (которые мы отслеживаем), в общем, это означает, что температура в помещении ниже 25 ° С.

В Австралии кажется, что Эмерсон (Либерт) решил, что 21с будет стандартом, и каждая комната, в которой я был, была одинаковой.

Если ваша комната достаточно велика, обратите внимание на горячую / холодную поверхность, плиту-заглушку и т. П., Они действительно могут улучшить эффективность охлаждения.

LapTop006
источник
0

Я во флоте. На нашем корабле мы держали наши комнаты при температуре ниже 65 градусов по Фаренгейту. Мы были бы в середине Красного моря, и было бы 120 градусов снаружи. Мы выходили из космоса (при 62 градусах) со свитером, перчатками, пальто и павлином, и все смотрели на нас, как на сумасшедших. Все остальные были раздеты до футболок и вспотели, как сумасшедшие.

Проблема в том, что наша система охлаждения не очень хорошо удаляет влагу. Таким образом, если на улице влажно, а температура поднимается до 70 градусов и более, в помещении начинает становиться липким.

Джастин
источник
6
Привет Джастин, добро пожаловать в ServerFault. То, что вы написали здесь, - забавный анекдот, но это не очень хороший ответ на вопрос. Ответ должен был включать в себя вопросы для рассмотрения и / или рекомендации по наилучшей практике. Возможно, вы захотите взглянуть на это: serverfault.com/questions/how-to-answer
quux
0

Нет жесткого и быстрого ответа на этот вопрос. Это во многом зависит от типа компьютеров и конструкции центра обработки данных.

Один из ключевых моментов, которые были высказаны в этом обсуждении slashdot, заключается в том, что реальная трудность связана с горячими точками и потоком воздуха .

Прохладная температура окружающей среды в комнате - это простой способ охладить тысячи горячих точек в комнате. Но это неэффективно: центр обработки данных охлаждает всю комнату, когда все, что действительно необходимо, - это охлаждать горячие части серверов (процессор, память, хранилище, источники питания и т. Д.). У многих предприятий колокейшн есть клиенты с разнородными типами оборудования (115 В или 208 В, хорошие дизайны, плохие дизайны).

Центру обработки данных также необходимо поддерживать достаточное количество холодного воздуха для обеспечения буфера в случае сбоя питания . Буфер холодного воздуха означает, что ИБП и генераторы работают меньше. Представьте, что центр обработки данных теряет 100% мощности (все узлы отключаются, охлаждение также отключается) одновременно. Узлы могут не иметь питания, но аппаратному обеспечению потребуется время для охлаждения, и они все еще будут излучать тепло некоторое время, и это может сделать центр обработки данных очень горячим.

Организации с теплыми серверными комнатами часто используют закрытые шкафы и причудливые воздуховоды для направления холодного воздуха прямо через горячие узлы. Специализированная энергетическая инфраструктура может помочь уменьшить тепло от преобразования энергии. Это сохраняет узлы достаточно прохладными, даже если температура в серверной комнате теплая. Эти организации обычно жестко контролируют большинство аспектов своего оборудования и могут индивидуально спроектировать весь центр обработки данных для своих нужд. Они могут делать инвестиции и пожинать плоды.

Стефан Ласевский
источник
0

Первый: где вы измеряете комнатную температуру? ;-) Какова температура холодной стороны стойки? что такое горячая сторона стойки? какова температура впуска A / C?

Это действительно зависит от устройств. (почувствуйте тепло, которое исходит от xbox) Терморегуляция - это наука, посмотрите, что Honda (и многие другие) начинают охлаждать выхлопные воды ;-) ...

Я расскажу вам об этих центрах обработки данных, в которых я был:

Эквикс держит там холодный DC (делает для хорошего "опыта" для когда exec отправляется в тур)

RW держит их в тепле / тепле около 80 ° с довольно холодным воздухом, выходящим из пола (лучший дизайн помещения / хранилища и более высокое качество системы в целом)

Coresite (по крайней мере, где я был) ближе к RW, но это зависит от CR и клиентов. Некоторые ЧР в 80, некоторые в 70. (холодные острова всегда холодные)

sirmonkey
источник
-2

Температура, которую вы действительно хотите отслеживать, это внутренняя температура сервера, а не температура окружающей среды. Следите за температурой вашего сервера (все серверы имеют внутренние термометры, которые сообщают через интерфейс сервера) и соответственно регулируйте температуру окружающей среды. Это будет учитывать воздушный поток и т. Д. Наличие резервного плана охлаждения - хорошая идея, даже переносные кондиционеры могут быть спасителями в случае отказа первичной системы охлаждения.

Джейсон
источник
7
Это довольно плохой совет. Хорошо, что ОП, скорее всего, этого не увидит. Но игнорирование температуры окружающей среды - отличный способ превратить все ваши серверы в дорогие остановки дверей, когда вы охлаждаете помещение ниже точки росы и конденсируете воду на всех металлических поверхностях. Я настоятельно рекомендую его для диверсий, так как это разрушительно и практически невозможно доказать намерение.
HopelessN00b
-5

Я нашел 19-21 хорошую температуру. Google запускает свои серверные комнаты с немного более высокой температурой, чем вы могли бы предположить, так как они обнаружили, что немного более высокая частота отказов лучше, чем доплата за охлаждение.

Питер
источник
9
Не делай этого. Ответьте на вопрос 3,5 года спустя, не добавив ничего в другие ответы.
HopelessN00b