5 мифов о системе электропитания и охлаждения ЦОД

30 мая 2014

5 мифов о системе электропитания и охлаждения ЦОД Здравый смысл не всегда помогает разглядеть истину. И особенно это относится к системам электропитания и охлаждения дата-центра. Многие популярные убеждения, которыми руководствуются операторы ЦОД в своей работе, на самом деле являются мифами, и цепляться за них не следует, так как это может воспрепятствовать повышению эффективности использования энергии или экономии средств. Читайте дальше, чтобы узнать о пяти заблуждениях, связанных с электропитанием ЦОД и охлаждением серверного оборудования.

Испарительное охлаждение не пригодно для регионов с влажным климатом

Относительная влажность действительно влияет на эффективность испарительного охладителя, но многие производители вспомогательного оборудования для ЦОД предлагают своим клиентам системы косвенного испарительного охлаждения, которые способны работать в регионах с повышенной влажностью воздуха. Они характеризуются более высокой энергоэффективностью и, соответственно, меньшими эксплуатационными расходами по сравнению со стандартными кондиционерами. Данная технология предполагает использование теплообменника в сочетании с системой испарительного охлаждения, ввиду чего циркулирующий внутри ЦОД воздух не увлажняется.

Охлаждение испарением может быть использовано в сочетании с кондиционированием воздуха в рамках гибридной системы. Некоторые производители утверждают, что использование косвенного испарительного охлаждения позволяет выйти на экономию электроэнергии на уровне 95 процентов по сравнению со стандартными кондиционерами.

PUE является неэффективной метрикой для оценки энергоэффективности ЦОД

Коэффициент эффективности использования энергии (Power Usage Effectiveness; PUE) является достаточной простой по своей сути метрикой, но от этого он отнюдь не становится неэффективным. Большинство скептиков критикуют PUE за то, что в некоторых случаях измерить этот показатель может быть проблематично. Если дата-центр не будет оборудован множеством специальных счетчиков, определить, какое именно количество электроэнергии идет на запитку IT-оборудования, может быть достаточно непросто.

Из-за обилия сложностей операторы многих дата-центров ограничиваются измерением энергопотребления оборудования лишь нескольких категорий (обычно, серверов и ИБП), при этом в большинстве случаев они не измеряют количество электроэнергии, потребляемой системой охлаждения ЦОД, а также не учитывают потери при передаче электричества. Напомним, что чем ниже PUE, тем лучше. Идеальный коэффициент близок к 1.0. Если PUE в среднем за год составляет, к примеру, 2.9 единицы, это означает, что дата-центр в целом использует в 2.9 раза больше энергии, чем потребляют серверы, СХД и сетевое оборудование внутри него.

Эксплуатация IT-оборудования в своем собственном помещении экономит деньги

Крупные и мощные дата-центры могут потреблять гораздо меньшее количество электроэнергии из расчета на один центральный процессор, чем небольшие ЦОД или отдельные серверные комнаты. Провайдеры облачных сервисов или поставщики услуг по совместному размещению клиентского серверного оборудования в коммерческих дата-центрах (колокейшн), в расположении которых имеются серверные фермы с мощными и высокопроизводительными системами охлаждения, могут добиться рекордно высокой эффективности использования энергии. Добавим к этому экономию от масштаба, и получится, что размещение серверного оборудования в коммерческих ЦОД или использование облачных вычислительных мощностей позволяет корпоративным клиентам минимизировать затраты на обслуживание своих бизнес-приложений, если сравнивать с небольшими корпоративными дата-центрами или серверными комнатами. Не будет забывать и о том, что последние обычно являются частью зданий общего назначения, которые проектировались и возводились без учета возможности размещения мощного IT-оборудования, что не позволяет обеспечить оптимальное энергосбережение.

Чем холоднее, тем лучше

Некоторые люди утверждают, что размещение серверов и другого IT-оборудования в помещениях, где поддерживается относительно низкая температура, обернется продлением срока полезной эксплуатации подобного оборудования. Это правда: эксплуатация вычислительной систем при более высокой, чем рекомендует производитель, температуре может привести к преждевременной поломке. Тем не менее, снижение рабочей температуры ниже того порогового уровня, который также указан в рекомендациях производителя, отнюдь не увеличивает продолжительность периода полезной эксплуатации «железа».

Многие операторы ЦОД перестраховываются и стараются поддерживать температурный режим внутри машзалов своих дата-центров на 5 – 10 градусами по Цельсию ниже, чем необходимо, чтобы все системы функционировали при температуре ниже максимально допустимой. Оптимизация потоков воздуха внутри ЦОД с помощью «холодных» и «горячих» коридоров, а также ряд других приемов подобного плана позволяют повысить среднюю температуру окружающей среды в машзалах дата-центра при одновременной снижении эксплуатационных расходов и минимизации риска выхода IT-оборудования из строя. Подобный вариант гораздо рациональнее, чем непрерывное поддержание предельно низкой температуры внутри всего дата-центра.

Твердотельные накопители помогают значительно снизить энергопотребление ЦОД

Твердотельные накопители (SSD) потребляют меньше энергии, чем стандартные жесткие диски (HDD) – особенно это сравнение справедливо для высокопроизводительных накопителей на жестких магнитных дисках, характеризующихся скоростью вращения шпинделя на уровне 10000 — 15000 оборотов в минуту. Тем не менее, даже под максимальной нагрузкой жесткий диск со скоростью вращения шпинделя на 15 000 оборотов в минуту потребляет всего около 10 ватт. Это ненамного выше по сравнению со среднестатистическим SSD-накопителем корпоративного класса, потребляющим около 4 ватт.

Учитывая тот факт, что твердотельные накопители стоят в среднем в 10 раз больше из расчета на один гигабайт емкости, чем жесткие диски, операторы / владельцы ЦОД вряд ли сэкономят достаточно денег на счетах за электроэнергию, чтобы оправдать расходы на приобретение подобных устройств. Они могут сэкономить намного больше, используя более эффективные процессоры и источники питания.

Всего комментариев: 0

Оставить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *