Лучше Google: операторы итальянского ЦОД нацелились на рекордный PUE
Проектировщики нового корпоративного дата-центра итальянкой компании ENI (Ente Nazionale Idrocarburi) поставили перед собой крайне амбициозную цель: объект должен был получиться экологичнее и энергоэффективнее лучших серверных ферм “великой и ужасной” Google. Еще более интересным является то, что ENI является крупнейшей нефтегазовой и энергетической компанией европейской страны. Вот такой парадокс.
Недавно этот дата-центр был введен в эксплуатацию. Объект находится недалеко от местечка Феррера-Эрбоньоне, что в часе езды к югу от Милана (северо-западная часть Италии). Размещенные там серверы будут использоваться для хранения и управления корпоративной информацией ENI, а также для сейсмического моделирования.
Новый объект находится рядом с собственной электростанцией ENI на природном газу, которая обеспечивает серверное, сетевое и вспомогательное оборудование внутри ЦОД электроэнергией. Ожидается, что благодаря расположению в непосредственной близости от генерирующих мощностей, энергоэффективному оборудованию и передовой системе охлаждения коэффициент эффективности использования энергии (Power Usage Effectiveness; PUE) нового ЦОД (отношение между совокупным энергопотреблением объекта и количеством электроэнергии, потребляемой IT-оборудованием) окажется ниже 1.2.
“Мы стремимся догнать и обогнать корпорацию Google, передовые дата-центры которой имеют среднегодовой PUE 1.13. Моделирование показало, что мы на правильном пути. Если превзойти Google все же не удастся, то расстраиваться мы не будем – так как дата-центр все равно будет крайне экологичным”, отметил вице-президент ENI Мишель Мазарелли, которая также является руководителем внутреннего проекта компании с говорящим названием Green Data Center.
К сожалению, оценить энергоэффективность дата-центра итальянцев в сравнении с объектами Google мы сможем лишь через год, когда будет опубликован среднегодовой коэффициент PUE и другие ключевые метрики. Но пока вы можете насладиться фотоэкскурсией по серверной ферме итальянских нефтяников.
Операторы ЦОД с полезной площадью в 5200 квадратных метров могут довести совокупную мощность IT-оборудования внутри объекта до 30 МВт. При этом плотность мощности оборудования можно довести до 50 кВт / кв. м. Объект создавался в рамках программы консолидации вычислительных мощностей ENI: он заменит собой четыре менее крупных дата-центра итальянцев и сможет выполнять тот же объем работ.
Предполагается, что в ЦОД будут трудиться в общей сложности 60 000 процессоров, обрабатывающих приложения в среде Linux. Стоимость дата-центра составляет около € 100 млн., но компания надеется на быстрый возврат капиталовложений. После ввода дата-центра в эксплантацию генеральный директор ENI Паоло Скарони сказал, что благодаря экономии на энергозатратах инвестиции удастся вернуть всего за три года.
Выбранная специалистами ENI стратегия повышения эффективности основана на двух столпах. Первым из них является близость к электростанции компании на природном газу (на фото выше в правой части). Это позволяет минимизировать потери при передаче довольно приличного количества электричества по сети.
Второй и наиболее важный элемент стратегии касается уникальных воздуховодов и системы естественного охлаждения (фрикулинг), которая использует их. Воздух попадает внутрь через нижнюю часть каждого из четырех строений (серый участок на стене здания на фото выше), формирующих кампус ЦОД. Затем воздушные массы проходят через фильтры и с помощью системы вентиляторов нагнетаются в машзал для охлаждения серверов. Отработанный воздух покидает ЦОД через верхнюю часть массивных воздуховодов (серый участок в верхней части здания).
“Система прямого естественного охлаждения позволяет операторам нашего ЦОД свести к минимуму использование кондиционеров “, сказал Мазарелли, подчеркнув, что благодаря расположению крупных воздуховодов на холме воздухозаборники находятся в 20 метрах над землей, где уровень концентрации твердых частиц относительно невысокий.
По расчетам инженеров ENI, в ходе процесса фильтрации (один из элементов системы фильтрации представлен на фото выше) из поступающего внутрь дата-центра воздуха будет удалять около 3000 килограмм пыли и прочих твердых частиц в год. При этом отводимый из дата-центра во внешнюю среду воздух будет относительно чистым.
“Наш проект был разработан для достижения максимальной эффективности”, сказал Мазарелли. “Он создавался не только архитекторами, но и компетентными инженерами, а также операторами ЦОД”.
Массив вентиляторов нагнетает внутрь здания воздух и направляет его к фильтрам. Эти вентиляторы способны перемещать большие объемы воздуха, но при очень медленной скорости (от 1 до 1.5 метров в секунду), что способствует повышению эффективности системы охлаждения в целом.
“Мы должны были учесть все даже самые мелкие детали. Два крупнейших машзала нашего кампуса, каждый из которых имеет площадь в 1000 квадратных метров, вмещают оборудование мощностью в 10 мВт, которое очень сильно нагревается. Для охлаждения этого оборудования мы должны были определенным образом оптимизировать воздуховоды, что и было сделано”, сказал Мазарелли.
После фильтрации воздух начинает выполнять свою работу: охлаждать серверы. Но максимизировать эффективность распределения воздушных масс внутри машзала непросто, так как холодный воздух нужно подводить к фронтальной стороне каждого сервера.
После прохождения через серверы теплый воздух будет перемещаться вверх, покидая объект через специальные вентиляционные отверстия.
“Подобная конструкция позволяет нам при необходимости доводить и поддерживать среднюю температуру внутри машзала до около 25 градусов по Цельсию, используя только фрикулинг”, сказал Мазарелли. “Горячий воздух покидает здание благодаря эффекту дымовой трубы (естественной тяги)”.
Внутри дата-центра также разместится суперкомпьютер, который специалисты ENI будут использовать для обработки программного обеспечения для сейсмического моделирования. Часть его узлов вычислительной мощностью в 1.5 петафлопса (на фото выше) уже заняли свои места. После завершения развертывания машины она должна достичь производительности в 4 петафлопса, что позволит ей побороться за место в списке самых быстрых суперкомпьютеров в мире.
Чтобы сделать свой дата-центр еще более эффективным, руководство компании ENI также заказало у своих партнеров разработанную по специальному заказу систему источников бесперебойного питания (ИБП). Эти ИБП активируются только при необходимости, что позволяет максимизировать КПД системы.
Вполне вероятно, что всего этого будет достаточно, чтобы дата-центр итальянцев попал на первое место в рейтинге эффективности.
“Перед нами стоит крайне интересная цель, и мы будем стараться изо всех, чтобы достичь ее”, сказал Мазарелли. Для тех, кто умеет читать между строк, заявление топ-менеджера будет звучать скорее как: “Берегись, Google”.
-
KS 04.12.2013не статья, а сплошные вопросы.
чем доохлаждают воздух при требуемой температуре 25С? чиллеры или фреон?
от этого зависит и установленная мощность и будущий PUE
как добиваются температуры 25, камеры смешивания? где говорится о них?
что с влажностью? допустим на побережье проблема увлажнения не стоит - всегда влажно, но зимой влажность будет под 100%, каким образом будут контролировать?
осушители - слишком энергоемкие, PUE вылетит в трубу.
Просьба к автору - раскройте подробности. -
Authors 04.12.2013К сожалению, ни в одном из открытых источников нет конкретики по этому поводу. Переадресовали вопросы владельцам ЦОД, ждем ответ.
-
BDC 09.01.2014В одном из семи дата-центров компании BDC (Литва) среднегодовой коэффициент PUE равен 1,09. Можем поделится опытом и рассказать Вашим читателям подробности.
-
author 10.01.2014Будем рады, если поделитесь своим опытом. Присылайте материалы на адрес author@telecombloger.ru
-
- Alexander: За R718 будущее )
- нет событий, чтобы показывать