Добавить в избранное
Новости ЦОД и Дата-Центров
Все, что Вам нужно знать о ЦОД

Ледяные шары помогают дата-центрам становиться «зелеными»

Компания I/O Data Center инвестирует «зеленые» технологии, начиная от фотогальванических солнечных панелей и заканчивая гигантскими ёмкостями с ледяными шарами, помогающими охлаждать ЦОД.

Обычно зеленый цвет – это не первый цвет, который приходит на ум тому, кто посещает горячий и сухой климат пустыни Финикса (Финикс – столица штата Аризона, США), где недавно температура превышала 109F (43С). Но именно здесь I/O Data Center построил коммерческий ЦОД площадью 16 700 квадратных метров, который соединяет энергосберегающий дизайн с использованием инновационных «зеленых» технологий: от необычной установки кондиционеров до конструкции серверной стойки.

Также в проекте применяются ледяные шары. Это заполненные водой, покрытые впадинами пластмассовые сферы, немного больше мяча для софтбола (софтбол — игра с мячом, разновидность бейсбола), их диаметр составляет 4 дюйма или 103мм. I/O использует ледяные шары в качестве источника холода для системы кондиционирования воздуха. Вполне возможно, что термохранилище на основе ледяных шаров от компании Cryogel, расположенной в Сан-Диего, – самая холодная (самая классная, the coolest) технология среди используемых.

На естественный вопрос о том, зачем шарикам нужны вмятины (они же уменьшают емкость шарика) отвечает сама природа: одно из многих аномальных свойств воды заключается в том, что она расширяется при отвердевании (таких веществ всего три в природе). Плотность льда на 10% превышает плотность воды, а потому и вмятины должны составлять 10% от объема шарика.



Ледяные шары Cryogel размером с мяч для софтбола, применяемые в термохранище, – это обычные заполненные водой пластмассовые контейнеры, покрытые впадинами. Ледяные шары замораживают ночью, когда электричество дешево, и использует их для охлаждения дата-центра в течение дня.

Геометрия ледяных шаров

В здании ЦОД в Финиксе ледяные шары плавают в четырех огромных баках, заполненных гликолем, охлажденным до 22F (-5,6С). Гликолевый раствор прокачивается чиллерами, замораживая шары ночью, когда стоимость электроэнергии ниже. Днем гликоль, окружающий ледяные шары, прокачивается через теплообменник, охлаждающий воздух для ЦОД. Такая система снижает длительность работы чиллеров в течение дня, когда стоимость энергии выше.

Один интересный и неочевидный нюанс – какова же мощность чиллеров? Для примера возьмем ЦОД 1МВт и длительность ночного тарифа на электроэнергию, равную 8 часов в сутки (с 23 вечера до 7 утра). Очевидно, что холодопроизводительность системы охлаждения равна 1МВт, а за сутки количество сгенерированного холода составит 1МВт * 24ч = 24МВт*ч. При постоянной работе чиллеров их потребная холодопроизводительность составила бы 1МВт, но чиллеры работают только ночью, а потому должны сгенерировать 24МВт*ч всего за 8 ночных часов. А потому холодопроизводительность чиллеров равна 24МВт*ч / 8ч = 3МВт. Значит, для работы системы необходимо трижды больше чиллеров!
Второй момент: чиллеры должны охлаждать гликоль примерно до -8С. А это уже другой класс оборудования (холодильное, а не кондиционерное).

Однако, не факт, что система экономит энергию. Это зависит от многих различных показателей в каждом конкретном проекте. Но однозначно то, что она экономит деньги. Смещая время использования электроэнергии со дня на ночь, экономится около 1 250$ в год за каждый «смещенный» киловатт, говорит Виктор Отт, президент Cryogel. Отт, цитируя результаты исследования, проведенного Калифорнийской энергетической комиссией, говорит, что это «примерно совпадает со стоимостью за кВт вновь генерируемой мощности».

Всё верно. За счет потерь и генерации холода чиллерами на более низком температурном уровне затраты на получение холода будут заметно выше. Но и прибыль от разности ночных и дневных тарифов велика! При разности 1.5руб/кВт для 1МВт за год экономия составит 13млн.руб=$4.5млн.

Реальные финансовые сбережения в таких специфических проектах будут в любой точке Земли, говорит Отт, добавляя, что он не знает, какие фактические сбережения были у ЦОД в Финиксе, построенным компанией I/O Data Center. Докладчик I/O Data Center говорит, что у него также нет оценки энергосбережений от ледяных шаров.

Отт утверждает, что технология становится ещё более «зеленой», если учесть, что для производства электричества сжигается меньше ископаемого топлива ночью, чем днем, т.к. ночная температура ниже. Это происходит по двум причинам: во-первых, ниже потери в линиях электропередач, а во-вторых, тепловой коэффициент (количество энергии ископаемого топлива, требуемого для производства одного киловатта электричества) для некоторых заводов также ниже.

Последнее утверждение — что энергия, потребляемая ночью, является более «зеленой» — могло бы быть продолжено, говорит Питер Гросс, вице-президент и генеральный директор отделения Critical Facilities Services компании Hewlett Packard (Отделение HP Critical Facilities Services занимается проектированием дата-центров, но не было привлечено к проектированию строительству ЦОД в Финиксе).

Стоимость системы с термоаккумуляторами на основе ледяных шаров Cryogel сильно зависит от варианта исполнения и ёмкости, а потому может изменяться в широком диапазоне. По словам Отта, грубо стоимость системы можно оценить примерно в 60$ за тонну холодного воздуха в час. Срок окупаемости также варьируется в широких пределах. «Если мы не сможем окупить систему в течение одного — пяти лет, мы, вероятно, не будем её продавать» говорит Отт. Но не всегда срок окупаемости является причиной, по которой владельцы ЦОД отказываются использовать данную технологию.

Наиболее серьезным поводом к отказу является то, что система требует гигантских контейнеров (это и камеры высокого давления и атмосферные резервуары), в которых содержатся ледяные шары. А они требуют большого пространства, которое является дефицитом для большинства дата-центров.

В проекте I/O Data Center, например, термохранилище на основе ледяных шаров Cryogel требует наличия четырех стальных камер высокого давления, габариты которых составляют 10 футов в диаметре и 22 фута в высоту. Вице-президент I/O Data Center Джейсон Феррара говорит, что в из распоряжении было достаточно много свободного места, что и позволило выделить большую комнату для охлаждающего оборудования, но большинство ЦОД такой возможности не имеют. Потребность в таком большом количестве свободного места ставит вопрос цены на второй план, отмечает Отт. Но, говорит он, ледяные шары занимают меньше места, чем другие формы аккумуляторов холода, а «это — важное преимущество».

Такие размеры хранилища для ЦОД мощностью 20МВт на самом деле абсолютно не велики. Традиционная система охлаждения ЦОД на основе чиллеров требует наличия баков-аккумуляторов примерно на 10 минут работы ЦОД. Давайте оценим их объем исходя из мощности 20МВт. Он составит 620 м3. А объем ёмкостей для ледяных шариков — всего 250 м3. В 2.5 раза меньше! Таким образом, использованием шариков не только не требует большого свободного пространства, но и по сути экономит его!

Если же свободное место не является проблемой, то, говорит Гросс, он выступает «за» использование теплоаккумуляторов. «Хранение льда — потрясающая идея. Она позволяет сгладить кривую потребления электроэнергии и сэкономить на этом деньги» говорит он.

Отмечу, что потрясающей идея названа именно из-за хранения льда, а не какого-либо другого холодного вещества. Дело в том, что фазовое превращение «твердое тело – жидкость» («лед – вода») аккумулирует огромную энергию. Без него для аккумулирования той же энергии пришлось бы либо охлаждать лед не до -5С, а до -185С, либо его потребовалось бы в 19 раз больше!

Примечание редактора: благодаря некоторым уточнениям Cryogel данный текст был обновлен 20 октября 2010.

Ещё одна причина, объясняющая редкость использования теплоаккумуляторов, — это их надежность.

В течение дня, когда охлажденная вода поступает от ледяных шаров, чиллеры отключены. Процесс перезапуска чиллеров и их выхода на режим составляет от 30 минут до часа. В случае неисправности теплоаккумулятора ЦОД останется без холодоснабжения на этот период времени. «Вы будете должны остановить весь ЦОД, т.к. он успеет перегреться до включения чиллеров», говорит Гросс.

На мой взгляд всё на самом деле не так страшно: длительность 30 минут завышена, а в итоге система ничем не опаснее обычной чиллерной. Необходимо лишь насосы в контуре гликоля запитать от ИБП.

Однако, заявляет Отт, теплоаккумуляторы используются в промышленных предприятиях более 20 лет и являются проверенной технологией.

Гросс соглашается. Он говорит, что грамотно разработанная система с ледяными шарами чрезвычайно надежна. «Мы успешно реализовали её в ЦОД в Лос-Анжелесе», говорит Гросс.

Перестройка всего здания

Система охлаждения от I/O Data Center в Финиксе также обслуживает здание площадью 538 000 квадратных футов. В качестве площадки для реализации проекта был выбран завод по розливу воды в бутылки. На первом этапе, завершившемся в июне 2009 года, было освоено 180 000 кв.футов площади и 26МВт мощностей. Второй этап предполагает открытие площадки площадью 180 000 кв.футов мощностью 20МВт, его завершение планируется в декабре. Также I/O обустроил 80 000 кв.футов офисной площади.



От завода по розливу воды до дата-центра космической эпохи: реконструированная в рамках первого этапа площадь в 180 000 квадратных футов уже используется на 85%. Еще 180 000 квадратных футов находится в работе.

«Уникальность проекта I/O Data Center в Финиксе заключается в том, что они взяли за основу завод по розливу воды и за счет увеличения объемов инвестиций внедрили в проект «зеленые» технологии» — говорит Маендра Дураи, вице-президент ИТ-инфраструктуры и глобальных операций в компании BMC Software Inc., которая арендует здесь 320 кВт мощности. (Крупнейший Заказчик I/O Data Center, имя которого не называется, арендовал 5 МВт вычислительных мощностей (а это приблизительно 25 % суммарной мощности объекта) для питания своего основного американского ЦОД.)

Когда дело доходит до энергосберегающих дата-центров и внедрения «зеленых» технологий, девиз I/O Data Center – «чем больше ЦОД, тем лучше». «Крупные ЦОД делают возможной большую экономию посредством «зеленых» технологий» — говорит президент Джордж Слессмен.

Охлаждение

Одним из наиболее инновационных методов энергосбережения, реализованных I/O Data Center, является установка большего, чем требуется, количества шкафных кондиционеров. В результате применяемые в кондиционерах вентиляторы с регулируемой производительностью работают на более низких скоростях.

Математика здесь может показаться неуместной, но она наглядно показывает причины экономии энергии, объясняет Гросс. Так как энергопотребление вентилятора пропорционально кубу скорости, то при снижении скорости вдвое мощность уменьшается в 8 раз. Таким образом, энергосбережение от снижения скорости всех вентиляторов с лихвой восполняет энергию, расходуемую на управление большим числом кондиционеров.

Действительно, актуальный в настоящее время метод повышения энергоэффективности системы. Необходимо добавить следующее. Во-первых, в 8 раз снижается потребляемая мощность не всей системы кондиционирования, а только вентялторов внутренних блоков. Во-вторых, дя реализации этого необходимо закупить дважды больше кондиционеров и найти для них место в помещении ЦОД. В-третьих, в голове вертится интересный вопрос: почему бы в кондиционеры не встроить переразмеренный вентилятор, который в обычном режиме крутился бы со скоростью, вдвое ниже номинальной? Тогда и экономия достигалась бы без излишнего увеличения числа кондиционеров.

I/O Data Center также использовало преимущество сухого воздуха, применяя испарительную систему охлаждения. «За ней большое будущее, — говорит Гросс, — Испарительное охлаждение является очень эффективным с энергетической точки зрения».

Консервативная повестка дня

I/O Data Center предлагает клиентам энергосберегающие технологии. Например, применяются стойки, направляющие холодный воздух из-под фальшпола непосредственно к оборудованию, а горячий – в верхнюю часть каждого ряда. В результате ИТ-оборудование оказывается полностью изолированным от комнатного воздуха. Джейсон Феррара, вице-президент I/O, говорит, что это позволяет снять до 32кВт со стойки.

Также в проекте использованы сверхзвуковые увлажнители, потребляющие на 93% меньше электроэнергии и выделяющие гораздо меньше тепла, чем традиционные пароувлажнители.

Насколько я знаю, для производства пара из воды при использовании любого метода требуется затратить энергию фазового перехода – скрытую теплоту парообразования. Будь то электродный увлажнитель или сверхзвуковой, потребляемая мощность должна быть одинаковой.



В ЦОД используются энергосберегающие светодиодные светильники, выделяющие гораздо меньше тепла, чем традиционные системы освещения.

I/O Data Center планирует производить некоторую часть своей собственной «зеленой» энергии. Вторая фаза проекта предусматривает установку комбинированной теплоэнергетической системы, которая обеспечит электроэнергией систему охлаждения ЦОД.

Также в планах I/O Data Center установить на крыше здания фотогальванические элементы общей мощностью 4.5МВт. Производимая энергия будет использоваться для снижения потребления энергии от электросети днем – тогда, когда оно достигает пиковых значений.

Комбинированная теплоэнергетическая система «не играет большой роли в небольших установках, но в непрерывно работающем дата-центре мощностью 40 или 50 МВт её вклад ощутим», говорит Слессмен.

Однако, применение фотогальванических элементов представляется сомнительным. Пока у I/O Data Center есть проект, готовый к реализации, говорит Феррара, компания удерживалась на покупке элементов, так как цены падают очень быстро. «Мы ожидаем стабилизации цен» — объясняет он.

Но сегодняшние фотогальванические элементы производят только 16 ватт пиковой нагрузки на квадратный фут занимаемой площади. Для получения 20МВт энергии, как того требует уже выполненный первый этап строительства в Финиксе, потребуются акры площади, говорит Гросс.

Как дополнительный источник сетевой электроэнергии фотогальванические элементы работают хорошо. Но в качестве непрерывного источника энергии они не надежны, даже в солнечном Финиксе. «Здесь больше приспособлены использовать другие средства. Топливные элементы более эффективны,» говорит Гросс. Но если солнечная энергия и непрактична, то у неё есть одно преимущество: Хвастовство оправдывается при развертывании солнечной батареи на 4.5 МВт. Она сексуальна, признает Гросс. «А это – пиар для ЦОД», говорит он.

В дата-центре в Финиксе применены и другие «зеленые» технологии. Слессмен говорит, что I/O Data Center ожидает получения серебряного сертификата LEED (Leadership in Energy and Environmental Design, Лидерство в энергетическом и экологическом проектировании) к середине 2011, также данный ЦОД – один из немногих, претендующих на получение сертификата от The Uptime Institute на уровень надежности Tier IV (доступность 99.995 %).

Конечная цель I/O Data Center в отношении ЦОД в Финиксе, говорит Слессмен, «сделать единственный коммерчески доступный в Северной Америке ЦОД, имеющий сертификаты LEED и Tier IV».

Роберт Л. Митчелл
Источник: computerworld.com
Перевод и комментарии: Хомутский Юрий

Почему Финикс?

Если учесть острую необходимость ЦОД, конечная мощность которого достигает 40МВт, в охлаждении, то почему в качестве места построения ЦОД выбрана пустыня? «Много людей переезжало в Финикс, как в город с развитым рынком услуг ЦОД», говорит Мареш KC, президент и главный энергетик Megawatt Consulting – компании, которая проектирует крупные ЦОД. Есть некоторые веские основания строить ЦОД именно здесь, говорит он. «Но я подвергаю сомнению размещение ЦОД здесь с точки зрения потребляемой энергии».

«Внешняя температура не влияет на процессы, происходящие внутри», говорит вице-президент I/O Data Center Джейсон Феррара. Одно лишь преимущество сухого климата пустыни, например, позволяет применять энергосберегающую испарительную технологию охлаждения.

Действительно, с точки зрения холодильного для кондиционера важны только температуры испарения и конденсации. Несмотря на то, что в Финиксе температура окружающего воздуха вполне может составить +45С, низкая влажность позволяет добиться её сильного снижения за счет адиабатического увлажнения. Например, воздух 45С/10% перед входом в конденсатор можно увлажнить до параметров 24С/85%. Соответственно температура конденсации составит всего 30С. Как в Москве!

Но здесь существуют пределы для таких технологий охлаждения, как экономайзеры и испарительные охладители, которые завязаны на окружающий воздух, температура которого летом может превышать 120F (49C). В конце концов, несмотря на использование энергосберегающих технологий, говорит Мареш, «Вы дорого платите за охлаждение».

Однако, клиент I/O Data Center — компания BMC Software – выбрала ЦОД в Финиксе не из-за «зеленых» технологий. Маендра Дураи, вице-президент по ИТ и глобальным операциям в BMC, расположенном в Хьюстоне, говорит, что выбрал Финикс по одной, важной с практической точки зрения, причине: вслед за недавними ураганами руководство хотело перенести основные бизнес-системы компании из Хьюстона.

«Финикс — одно из немногих мест в стране, характеризующееся минимальным уровнем опасности от стихийных бедствий,» говорит Дурай. План BMC требует сертифицированную по Tier IV площадку (которую как раз и планирует предложить I/O Data Center), и много(PLENTY) комнаты, для расширения. Сфокусированность на «зеленых» технологиях также входила в список пожеланий, но занимала лишь 4-е место в списке приоритетов.



Тэги: , , ,
|
Источник:
|
RSS 2.1
|
|
ОСТАВИТЬ ОТЗЫВ



Партнеры