Facebook бросает вызов природе, используя естественное охлаждение в Северной Каролине

20 ноября 2012


Инженеры Facebook сумели сделать свой ​​новый дата-центр в Северной Каролине, США, более эффективным, чем аналогичный в Прайнвилле, штат Орегон, даже несмотря на летнюю жару, которая характерна для данного региона. С помощью естественного охлаждения и серверов Open Compute Foundation специалисты Facebook довели показатель эффективность энергопотребления (Power Usage Effectiveness; PUE) до 1,07 (в дата-центре в Прайнвилле PUE равен 1,09).

Эффективность энергопотребления определяет соотношение общего объема энергии, используемой центром обработки данных, к объему, которые используется оборудованием. Чем ближе показатель к единице, тем эффективнее дата-центр. Так как же Facebook удалось избежать использования системы кондиционирования воздуха на своем объекте, расположенного на юге североамериканского континента, где температура может достигать очень высоких значений, при этом влажность также находится на достаточно высоком уровне, чтобы заставить человека почувствовать себя, как будто он дышит под водой?

Сообщение в блоге Facebook по этой теме начинается с оценки прогнозов погоды из различных источников. Инженеры компании оценили прогнозы с использованием программного обеспечения BinMaker для расчета влияния температуры и влажности на вычислительные системы, а также проанализировали прогнозы и данные от Американского общества инженеров по отоплению, охлаждению и кондиционированию воздуха (American Society of Heating, Refrigerating and Air-Conditioning Engineers; ASHRAE). Это было сделано, чтобы выяснить, будет ли необходимо использовать систему кондиционирования. Исходя из данных ASHRAE, компания должна использовать кондиционеры в Форест-Сити, Северная Каролина. При этом оценки с использованием BinMaker дали противоположный результат. Невзирая на перспективу возможного включения охладителей, Facebook установила их, но и разработала план системы с естественным воздушным охлаждением.

Согласно записи инженера Facebook в блоге Open Compute, специалисты «закончили установку воздухоохладителя непосредственного охлаждения на объекте на случай подобной необходимости, но при этом было важно найти способ, позволяющий задействовать естественное охлаждение. Потенциальное повышение эффективности в результате неиспользования воздухоохладителей непосредственного охлаждения было просто слишком большим, чтобы его можно было взять и проигнорировать». Немногим позже Facebook создала свои собственные серверы на базе стандартов Open Compute, которые сама же и представила несколькими годами раньше. Специалисты произвели отладку машин, чтобы те могли справляться с более высокими температурами и влажностью в помещении.

Для инженеров сложности были связанны не с жарой – основой проблемой была влажность. С подобной проблемой столкнулась и компания eBay, которая использует систему естественного воздушного охлаждения в Финиксе. Работать проще с «сухим жаром» (теплый воздух с минимальным уровнем влажности), потому что техники могут применять искусственный туман для охлаждения воздуха перед подачей его в систему охлаждения. При высокой температуре и низкой влажности специалисты Facebook в основном используют испарительное охлаждение. Тот же метод компания использует в Прайнвилле в теплые дни.

Прошлым летом, когда в Северной Каролине был практически побит температурный рекорд за июль (вторая по величине средняя температура за всю историю наблюдений), а в один день температура дошла до 38 градусов по Цельсию, Facebook повезло, потому что влажность оставалась низкой. Это означало, что компании не пришлось включать кондиционеры. Однако техникам все же пришлось использовать сухой горячий воздух из серверной комнаты, чтобы снизить общую влажность в те дни, когда наружный воздух был очень влажным, но не горячим.

Всего комментариев: 0

Оставить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *