Добавить в избранное
Новости ЦОД и Дата-Центров
Все, что Вам нужно знать о ЦОД

Как инициатива OCP преобразила кампус ЦОД Facebook в Форест-Сити?

ЦОД Facebook в Форест-СитиКампус ЦОД Facebook в городе Форест-Сити, штат Северная Каролина (США), спрятан в предгорьях национального парка Саус Маунтинс. Кампус общей площадью в 64.7 гектара вмещает два крупных дата-центра площадью по 30 тыс. квадратных метров каждый и ряд вспомогательных зданий. Объект был введен в эксплуатацию в 2012 году. Местный кампус ЦОД является одним из трех кампусов соцсети в Соединенных Штатах Америки: еще один строится в Айове, а третий уже работает в Прайнвилле, штат Орегон.

Недавно американская компания устроила экскурсию по одному из своих ЦОД в Форест-Сити для американских журналистов, в ходе которой один из операторов этого дата-центра по имени Кевен Макмамон рассказал о ключевых особенностях объекта. После экскурсии стало очевидно, что Facebook хочет не просто быть частью инициативы по повышению экологичности интернет-инфраструктуры во всем мире – соцсеть намерена возглавить это движение.

Польза Open Compute Project

Следует отметить, что дата-центры в Форест-Сити были построены с нуля с использованием технологических наработок и IT-оборудования с оптимизированным энергопотреблением, которые были созданы в рамках инициативы Open Compute Project (OCP). Инициатива OCP была запущена в 2011 году с целью разработки серверов, сетевых устройств и вспомогательного оборудования для дата-центров в рамках модели, которая традиционно ассоциируется с проектами по созданию программного обеспечения с открытым исходным кодом.

Как отметил Макмамон, благодаря упору на повышенную энергоэффективность при проектировании оборудования в рамках инициативы OCP и последующему внедрению нового оборудования в дата-центры компании Facebook за последние 3 года ей удалось сэкономить около $ 1.2 млрд. в форме затрат на инфраструктуру. При этом повышение энергоэффективности оборудования позволило сократить энергопотребление ЦОД и высвободить ресурсы электростанций, достаточные для удовлетворения электроэнергетических потребностей 40000 среднестатистических домохозяйств в течение года. Все это также позволило соцсети добиться снижения углеродного следа своего бизнеса на уровень эквивалентный эффекту от удаления 50000 транспортные средств на базе двигателей внутреннего сгорания с дорог.

Охлаждение

Так что же делает рассматриваемый кампус ЦОД столь эффективным? Ну, для начала, горячие серверы внутри дата-центров американской соцсети в Форест-Сити охлаждаются на 100-процентов с помощью наружного воздуха (то есть здесь используется фрикулинг), что позволяет добиться значительного сокращения затрат на электроэнергию за счет отказа от энергозатратных чиллеров. В ходе двухчасовой экскурсии по ЦОД почти половина времени была потрачена на прогулки по коридорам с механизмам фильтрации и охлаждения воздуха (улучшенными с помощью OCP), которые необходимы для поддержания оптимального температурного режима внутри серверов в дата-центре.

Если вкратце, воздух там обрабатывается следующим образом. После раскрытия воздухозаборников наружный воздух пропускается через первый массив фильтров (или предварительные фильтры). В следующем помещении радиаторы сушат воздух. Затем он пропускается через холодильную установку на базе «мокрой сетки» (производства шведской Munters), которая доохлаждает воздушные потоки при необходимости. На последнем этапе этого процесса воздух подается в машзалы. Нагревшийся отработанный воздух, после прохождения через электронику, нагнетается в вентиляционную камеру, после чего либо рециркулируется, либо используется для отопления или осушения, либо подается на вытяжные вентиляторы и покидает ЦОД.

Микросерверы и холодное хранилище

В дополнение к информации о продвинутой системе охлаждения Макмамон поделился с журналистами данными о достижениях инженеров Facebook в области проектирования серверов в рамках OCP и использования концепции «холодного хранилища» (хранилище непопулярного контента), что также способствует повышению энергоэффективности ЦОД.

В Форест-Сити используются микросерверы из линейки моделей Winterfell Web, созданной участниками инициативы Open Compute Project. Без малого 86 таких машин может вместить внутрь трех корпусов, размещающихся внутри одной монтажной стойки Open Rack, спецификация которой также была разработана в рамках OCP. В данном случае повышенная эффективность достигается за счет использования узкоспециализированных серверов, которые предварительно были лишены всех ненужных компонентов – в расход были пущены даже полноценные корпуса, защищающие отдельные машины. К примеру, удаление все того корпуса позволил оптимизировать воздушные потоки и отказаться от использования 28-ваттного вентилятора. Последний ранее применялся для принудительного нагнетания воздуха внутрь машины по причине дополнительного сопротивления, вызванного обилием пластиковых элементов на фронтальной и монтажной панелях корпуса.

Что касается «холодного хранилища», то на кампусе ЦОД в Форест-Сити под него выделено несколько машзалов общей площадью в 9000 квадратных метров. Этот «чердак» для всевозможного цифрового контента вмещает среди прочего более чем 400 млрд. фотографий. Данные фото ранее были загружены пользователями социальной сети Facebook, но потеряли актуальность и попали в категорию редко используемых файлов. Так как запросы на доступ к контенту, хранящемуся внутри «холодного хранилища», поступают довольно редко, обслуживающие его серверы требуют относительно маломощное охлаждение. Примечательно, что инженеры Facebook и партнеры компании по инициативе Open Compute Project смогли разработать микросерверы, которые могут устанавливаться внутри слота расширителя емкости СХД с поддержкой интерфейса SAS, благодаря чему внутри монтажной стоки можно высвободить место для 60 дополнительных дисков.

«Число сторонников инициативы Open Compute Project постоянно растет, причем речь идет как о производителях IT- и вспомогательного оборудования, так и о его потребителях, представляющих самые разные отрасли экономики. И все они вносят свой вклад в развитие открытых спецификаций, способствуя повышению энергоэффективности инфраструктуры ЦОД по всему миру «, сказал Макмамон в конце экскурсии по кампусу ЦОД, которая плавно перетекла в поездку на гольф-карах с электроприводом.



ОСТАВИТЬ ОТЗЫВ



Партнеры