Добавить в избранное
Новости ЦОД и Дата-Центров
Все, что Вам нужно знать о ЦОД

Как создать «зеленый» центр обработки данных

07.02.2010
|
author
|
Раздел: Green ЦОД, Инфраструктура ЦОД, Новости
|

Над центрами обработки данных во всем мире сгущаются тучи. Эта буря, как и другие, вызвана тепловой энергией, в данном случае – побочным теплом от плотно интегрированных стоек блейд-серверов. Порой на каждый ватт энергии, потребляемой для полезных нужд ИТ, до 2,5 ватт уходит на охлаждение. Совокупный экономический и экологический эффект высокого энергопотребления подогревает интерес к «зеленым», т.е. экологически эффективным ЦОДам.

Электроэнергия уже стала одной из трех главных расходных статей бизнеса, прочно заняв первое место в бюджете тех компаний, чей бизнес строится на ЦОДах, например, eBay и Google. Руководители обеспокоены тем, что затраты на электроэнергию, резко возрастающие по мере увеличения мощности центров обработки данных, могут затормозить текущую деятельность и дальнейшее развитие бизнеса. Тем временем, согласно аналитическому обзору, опубликованному в 2008 г. группой McKinsey & Company, выбросы углекислого газа от выработки электроэнергии для нужд ЦОДов в глобальном масштабе уже эквивалентны выбросам такой страны, как Аргентина – 24-й по величине экономики мира.

Повышение производительности ИТ-систем в пересчете на ватт энергии является ключевым фактором снижения затрат на электроэнергию и нейтрализации экологического ущерба от эксплуатации ЦОДов. Обнадеживает тот факт, что предприятия понимают тесную взаимосвязь эффективности и экологической безопасности ЦОДов: решив одну задачу, можно решить и другую.

«Зеленый» ЦОД: с чего начать
Несмотря на техническую сложность ЦОДов, первые шаги к повышению эффективности энергопотребления и охлаждения достаточно просты, утверждает Дуглас Элджер (Douglas Alger), сотрудник Cisco в должности ИТ-архитектора физической инфраструктуры, автор книги о проектировании экологически эффективных ЦОДов (Grow a Greener Data Center), недавно выпущенной издательством Cisco Press. По его словам, «создание «зеленых» ЦОДов не ограничивается одной лишь экономией энергии, но это самая важная область, особенно, при переоснащении существующих помещений».

«Зачастую все, что необходимо сделать, требует минимальных затрат, а то и вовсе ничего не стоит: достаточно добиться нормальной циркуляции воздуха в центре обработки данных, сделать так, чтобы холодный воздух поступал туда, куда надо, – говорит Элджер. – При этом порой нужно просто убедиться в том, что те или иные вентиляционные проемы открыты либо, наоборот, закрыты». Эффективность охлаждения снижается из-за таких вещей, как переплетения сетевых кабелей, открытые проемы в стойках, утечка воздуха через кабелепроводы в потолке или полу.

К другим мерам повышения экологической эффективности ЦОДов относятся:

• оснащение осветительной системы таймерами и датчиками движения.
• Анализ соотношения производительности серверов к их энергопотреблению серверов.
• Изучение возможности обеспечить «короткий» цикл охлаждения, при котором холодный воздух вырабатывается на минимальном расстоянии от оборудования, выделяющего тепло.
• Применение технологий виртуализации, позволяющих более эффективно и продуктивно использовать аппаратные ресурсы. С сокращением числа систем уменьшается и энергопотребление, и потребность в охлаждении.
• Реализация стратегии управления энергопотреблением ЦОДа, способной сократить затраты на величину до 20 процентов.

Чтобы добиться чего-то большего, необходимы организационные и технологические изменения. Курс на экологическую эффективность как при переоснащении существующих, так и при строительстве новых ЦОДов требует фундаментальной переориентации корпоративного управления. По словам Дина Нельсона (Dean Nelson), старшего руководителя отдела глобальных центров обработки данных компании eBay, для этого необходимы две вещи: «Необходима согласованность действий высшего руководства, начиная с генерального директора, и необходим лидер, наделенный бюджетными и организационными полномочиями, с энтузиазмом относящийся к порученному ему делу и готовый нести ответственность за его результат».

Начинать агитацию за «зеленый» ЦОД лучше всего в кабинете финансового директора, считает Роб Олдрич (Rob Aldrich), старший менеджер и руководитель программы обеспечения эффективности в компании Cisco: «Обратитесь к тому, кто постоянно видит суммы затрат на ИТ и электроэнергию, и согласуйте с ним структуру распределения сэкономленных средств. Проработайте этот вопрос так, чтобы половина экономии пошла в зачет расходов ИТ-отдела, а вторая половина была включена в баланс отдела эксплуатационного сопровождения объектов. Тем самым вы сможете обеспечить стабильное финансирование программы экологической состоятельности».

Технологии повышения эффективности

Чтобы сделать правильный выбор технологий, необходимо иметь четкое представление о трех главных вещах:
• какова изначальная ситуация
• сколько удастся сэкономить
• каковы риски, связанные с осуществлением задуманного.

Уместно начать с простой проверки загруженности имеющихся ресурсов. В США, по утверждению Олдрича, ресурсы серверов используются лишь на 10-20 процентов. Иными словами, говорит он, «80 из 100 серверов в ЦОДе выполняют незначительную полезную работу и зря тратят электроэнергию, создавая лишнюю нагрузку на систему охлаждения».

Корреляция между полезной нагрузкой и потреблением делает виртуализацию ЦОДов важным пунктом любой «зеленой» инициативы, суля очень быструю окупаемость. Плотно интегрированные системы с высокой вычислительной нагрузкой сильно нагреваются в процессе работы, поэтому точные замеры температуры приобретают критически важное значение. Для этого требуется разветвленная сеть датчиков, позволяющих оценить эффективность стратегии охлаждения в масштабе отдельных стоек.

Автоматизированное управление питанием
Определившись с отправной точкой и окупаемостью вашей стратегии, вы сможете извлечь ощутимые преимущества из автоматизации. Все большее число устройств поддерживает автоматизированное управление питанием в том или ином виде. Это позволяет переводить неиспользуемое оборудование в режим низкого энергопотребления и включать их, когда в этом возникнет потребность. ИТ-отдел в этом случае управляет энергоснабжением как услугой, получая более четкое представление об удельном объеме производительной работы на ватт затраченной энергии. Такой подход помогает в коммерческом обосновании экологической инициативы. «Хорошим примером является технология Cisco EnergyWise, доступная во всей линейке продуктов Catalyst, – говорит Олдрич. – Мы встроили эту технологию в операционную систему Cisco IOS, чтобы операторы имели возможность ликвидировать неэффективность с исключительной точностью. В результате сегодня в их руках скальпель, тогда как раньше им приходилось орудовать топором».

В ряде пилотных проектов с применением EnergyWise компания Cisco зафиксировала 20-процентное сокращение энергопотребления. В 2008 г. оплата электроэнергии обошлась Cisco в 135 млн долл., и ожидается, что внедрение EnergyWise в международном масштабе позволит компании в первый же год сэкономить 27 млн долл.

Архитектурные решения для управления энергопотреблением, такие как Cisco EnergyWise, играют ключевую роль в новом подходе к проектированию ЦОДов. В той же мере важна физическая архитектура – план здания и структура сети. «Физическая инфраструктура часто упускается из виду, – сетует Элджер. – Между тем добросовестное проектирование требует комплексного подхода». Из-за отсутствия детализированных показаний температуры сложился стереотип ЦОДов как крупных монолитных объектов, где вычислительные ресурсы будто бы представляют собой однородную массу и каждая стойка получает равную долю электроэнергии и ресурсов системы охлаждения. С точки зрения бизнеса такой подход неверен, заявляет Олдрич: «С какой стати ставить серверы печати на одну доску с намного более критичными серверами приложений?». Гибкость и модульность – как в устройствах, так и в физической организации помещения – позволяют операторам ЦОДов устанавливать приоритет ресурсов питания и охлаждения с точки зрения коммерческой значимости различных устройств и подсистем. «Ваша цель – иметь возможность произвольным образом перенастраивать системы питания и охлаждения для адаптации к последующим поколениям ИТ-оборудования на протяжении расчетного срока службы самого здания», – утверждает Олдрич.

Экологичность 2.0: новая концепция центра обработки данных
Все эксперты, чьи мнения приводятся в данной статье, определяют концепцию «экологичности 2.0» (Green 2.0) по-своему, но все трое сходятся во мнении о том, что эта концепция требует самого пристального внимания ко всем нюансам проектирования ЦОДов. Прежде всего, нужно правильно выбрать площадку для ЦОДа, что, в свою очередь, требует учета множества параметров, начиная от существующей инфраструктуры и кончая такими деталями, как стоимость (и источники) электроэнергии на объекте, его удаленность от мест проживания сотрудников и так далее.

Базовые принципы проектирования устройств также нуждаются в пересмотре. «Нам придется продумать все заново, и это касается всех уровней инфраструктуры, – подчеркивает Дин Нельсон из компании eBay, являющийся также основателем Data Center Pulse — специализированной отраслевой группы, объединяющей более 1.300 глобальных операторов центров обработки данных в 55 регионах. — В частности, ввиду стремительного роста плотности рассеиваемой мощности я считаю неизбежным использование устройств с водяным охлаждением. С моей точки зрения, это полностью перевернет сложишиеся стереотипы ЦОДов и поставщиков оборудования».

Концепция Green 2.0 потребует также интенсивной внутри- и межкорпоративной совместной работы. «Одна из самых больших ошибок, которые подстерегают компании, – это их уверенность в способности решить проблемы проектирования ЦОДа самостоятельно, – предостерегает Нельсон. – Чем больше людей вовлечено в решение той или иной проблемы, тем активнее она обсуждается и тем эффективнее будет решена. Обмен информацией намного выгоднее, чем закрытость во имя достижения конкурентных преимуществ».

Элджер согласен с тем, что совместная работа помогает добиться неожиданных решений, и поражен оригинальностью идей, о которых он узнал, изучая передовой отраслевой опыт: «Например, побочное тепло ЦОДов используется для обогрева самых различных объектов – от складов до оранжерей и даже общественных плавательных бассейнов», как это сделано в пригороде Цюриха – Уйтиконе, где побочное тепло центра обработки данных применяют для подогрева воды в бассейне общего пользования. Есть и другие примеры подобного рода. Так, в Израиле ЦОД компании Intel снабжает теплом все 11-этажное здание, где он расположен, обеспечивая обогрев всех помещений в зимнее время и возможность использовать горячую воду в кухонных и душевых комнатах, за счет чего Intel, по некоторым оценкам, экономит до 235 тысяч долларов в год.

Как бы там ни было, по крайней мере одно обстоятельство сомнений не вызывает: грядущие перемены, какими бы сложными они ни казались, неизбежны. Операторы, замечает Олдрич, всегда ставили во главу угла доступность ЦОДов и стремились избежать рисков, а сегодня, по его словам, «они сталкиваются с новым риском — риском выбыть из гонки с конкурентами на фоне роста затрат на электроэнергию и на соблюдение экологических нормативов. Единственный способ уцелеть в надвигающейся буре – действовать с упреждением».

Наталья Жукова
Источник



|
Источник:
|
RSS 2.1
|
|
  • Lollipop 08.02.2010
    А проводились ли расчеты, касательно того, каковы инвестиции в создание «зеленого» ДЦ и окупятся ли они в Российской действительности?
    Ответить
  • author 08.02.2010
    Расчетов таки еще не видел, но все, что называется Green IT, стоить на порядки дороже!
    Ответить
  • ОН 08.02.2010
    Статья не очень понравилась - одна вода.
    Расчёты проводились, но врятли кто-либо разместит (по динамическим ИБП - точно, несколько IT компаний в Москве считали + были выезды за бугор к производителям). В России не принято делиться новыми идеями и разработками, в расчёте на получение собственной выгоды (даже в ЦОДы не все пускают, вероятно стыдно:) ).
    Уверен, скоро это изменится.
    Про "всё стоит на порядок дороже" - не могу согласиться. В основе своей - дороже, но не на порядок. Не так давно делали расчёты по новой системе пожаротушения, стоимость реализации сопоставима с традиционной (+5-7%).
    В тематике "залёных ДЦ" уже появляются надёжные и относительно не дорогие системы, использование которых целесообразно (экономическая составляющая), но author - прав, создание 100% ДЦ "залёных", на данный момент финансово не оправдано и вероятно используется для решения маркетинговых целей - терпение господа, скоро :)
    Ответить
  • ОН 08.02.2010
    продолжение:
    цены на энергоносители еще поднимут и всем придётся сильно ужаться (экономика должна же быть экономной)
    Ответить
  • author 09.02.2010
    На счет пожаротушения я тоже проводил некоторые расчеты. Сама система газового пожаротушения действительно не превышает 10-15% от стандартной с использованием Хладона 125. На этом приятные новости закончились, если мы хотим использовать экологичный и безопасный газ, как для окружающей среды, так и для человека, например: Novec то стоимость болон почти в два раза выше Хладона.
    Ответить
  • ОН 09.02.2010
    author - а я не балонное решение с газом имел ввиду :)

    p.s. по поводу Noveca - балоны покупаются не сильно часто. + любой руководитель подтвердит "Жизнь человека (сотруников ДЦ включим в этот список :) , это самое дорогое)". К сожалению "человеческий" фактор, при обслуживании ДЦ, убрать практически не реально.
    Ответить
  • Lollipop 09.02.2010
    У Noveca концентрация, необходимаядля тушения ниже. Но стремает то, что технология новя. На русскоязычных сайтах одни хвалебные отклики, нацеленные на продажи сего чуда. Не бывает чоб все так солнечно и радужно было, про что-то умалчивают. Или газ этот перезаправлять часто нужно из-за потери свойств, или обслуживание системы нормально стоит или малоли что ещё. Нужно звонить производителю, узнавать и порыть отзовы на пиндосовских сайтах, там наверняка юзают и знают что и как.
    Ответить
  • Константин Коваленко 09.02.2010
    Пока государство не будет субсидировать данные проекты, движения далее разговоров не будет. Судите сами - зачем заказчику вкладывать дополнительные средства в защиту природы? Это же удар по рентабельности бизнеса, особенно в кризис. Если бы государство наказывало штрафами или давало льготы - тогда другое дело. Достаточно интересно читать восклицания о защите природы - такие "пылкие" речи произносятся обычно для PR. А после этого, за закрытыми дверями, просчитав ТЭО такого "озеленения" приходят к выводу, что это просто экономически не выгодно. Поэтому такие перспективы вряд ли придут в ближайшее время.
    Ответить
  • author 10.02.2010
    Согласен, пока государство не будет стимулировать развивать зеленые технологии в том числе и в ЦОДостроении, а экономический эффект будет значительно ниже, чем от технологий не заботящихся об окружающей среде, то все так и будет буксовать на месте.
    Ответить
  • grey72 11.02.2010
    Lollipop, Novec заменяется раз в 30 лет, а, скажем, HFC-227ea - раз в 3 года. Разница в начальной стоимости - 30% в пользу 227.
    OH, на западе тоже не принято делиться идеями. И с какой стати, скажем, мне, раскрывать know how, с помощью которого я выбиваю конкурентов со свистом по OPEXу на крупных ДЦ (от 2МВА, а другими мы и не занимаемся)? Например, проблема, возникающая на больших ДЦ, скажем, 10МВА, с резервированием ИБП на низком напряжении как решается? Кто-то знает? Нет? Ну и до свидания, обращайтесь ко мне - я знаю :) Но не скажу :) Примерно так...
    Ответить
  • ОН 12.02.2010
    grey72 - большинство из новых технологий всем (имеются ввиду люди занимающиеся любимым делом - дата-центрами не один год) известны. Я уверен, наладить работу по обмену опытом - полезная инициатива. Иначе в России так и будут самые слабые ДЦ и конкурировать с мировым рынком коммерческих ДЦ мы не сможем, а я считаю, что нужно. Про делиться на западе идеями - почему нет? ДЦ там условно "открыты" т.е. есть фото на сайтах, приглашают на экскурсии и т.д. Конечно, детально посмотреть проектную документацию просто так не дадут, но и прятать свой объект как у нас многие делают не станут. Когда большинство Российских ДЦ даже фото в инет не выкладывают, те кто выкладывают в большинстве своём позорятся (коллеги, но не правильно тупо .... строить) и только некоторые действительно гордятся своими творением.
    grey72 - а какое решение по пожаротушению Вы поставили в своём ДЦ (или уже поставили) и почему?
    Ответить
  • grey72 12.02.2010
    ОН - дело вот в чем: применение тех или иных решений основывается у меня ТОЛЬКО на экономических соображениях. Другими словами, я строю не ДЦ, а ПРЕДПРИЯТИЕ, со всеми бизнес-процессами, со штатным расписанием, перечнем услуг и рекомендованными прайсами, сервисными делами. Такого подхода в России нет (я строю не в России): есть желание попилить, куда уж при этом задумываться об OPEX'ах! А конечный инвестор, видя, что ДЦ, построенный таким образом, себя не окупает, идею хоронит. Вот и выходит, что российские строители ДЦ сами дискредитируют идею ДЦ. Сами себе зарезают рынок. Парадоксально, но факт.
    По пожарке я ставлю последние 2 года только Novec, поскольку, например, поменять 80 баллонов по 90 литров (это примерно для площади в 2500 кв.м) - это ЗАДАЧА, не хочется этим заниматься раз в 2-3 года, да и дорого: кг Новека стоит 50 ЕВРО, т.е. я 350 000 ЕВРО каждые 2-3 года пускаю по ветру :)
    Ответить
  • grey72 12.02.2010
    Относительно обмна опытом: а с кем обмениваться? Кто-то строил хотя бы 5 МВА в России? Нет. Да и некогда, у меня сейчас проект на 10 МВА есть и второй еще рождается в муках :)
    Ответить
  • grey72 12.02.2010
    Про кг Новека это я загнул в спешке: менять-то именно Новек и не нужно - он не разлагается. Тогда посчитаем, например, 227ea, выйдет 100 баллонов на 2500 кв.м и 280000 ЕВРО. Прошу прощения.
    Ответить
  • ОН 12.02.2010
    "Кто-то строил хотя бы 5 МВа в России?"
    я построил :)
    А про технологии и Ваши проекты grey72 - если будет желание, интересно пообщаться.

    p.s. по вопросу "есть желание попилить, куда уж при этом задумываться об OPEX’ах!" - вспоминается слова из прекрасного фильма "За державу обидно" как бы это смешно в России не звучало :) поэтому есть идея построить "правильный" дц.
    Ответить
  • grey72 12.02.2010
    ОН - идея, это еще не все. Нужен рынок и инвестор.
    Ответить
  • author 12.02.2010
    К сожалению, инвесторы не понимаю зачем вкладывать колоссальные деньги, когда можно построить в несколько раз дешевле и быстренько их отбить.
    Довольно часто у меня происходят диалоги с представителями компаний, размещающихся в Дата-Центрах России: финансовый сектор, гос. структуры, контентщики, крупные и средние бизнес. Все кричат в один голос: «Почему у нас нет ДЦ, сертифицированных под определенные стандарты?! Нам приходится самим до оборудовать помещения, шкафы и так далее.»
    Когда же речь заходит о увеличении стоимости аренды в несколько раз, но предоставления необходимого качества сервиса, все опять в один голос говорят: «Дорого!».
    Вот такой парадокс - все хотят дешево и сердито!

    Однако супер современный ЦОД построенный по мировым стандартам, с высоко классным сервисом, да еще правильно преподнесенный потенциальным клиентам, однозначно увенчается успехом.

    Еще одна немаловажная проблема заключается в том, что заказчики не понимают, что такое ЦОД, а у многих системных-интеграторов в России еще очень мало опыта. Все это приводит к появлению множество ЦОДов, которые еще очень долго будут стоять пустыми.


    Распрощаться с 200-300$ мл. пока никто не торопиться, а жаль!
    Ответить
  • ОН 13.02.2010
    200-300млн $ это на какой же ДЦ столько?)
    Я думаю зачастую в России высокие цены на услуги ДЦ из-за стремления максимально быстро вернуть вложенные средства (связано с нестабильной ситуацией во всём).
    grey72 - про инвестора и рынок - да :)
    Про техн. решения - вероятно скромность взяла верх.
    Ответить
  • author 13.02.2010
    Например:
    Cisco потратила порядка $ 80 млн. на модернизацию Дата-Центра до стандарта Tier III (с уровня инфраструктуры энергетики IV) - ДЦ Richardson
    Это только модернизация, а нам надо купить землю построить комплекс зданий, привезти оборудование и т.д.
    Ответить
  • ОН 15.02.2010
    не добавляются сообщения...
    Ответить
  • author 15.02.2010
    Добрый день.
    У Вас появляется какая-то ошибка при добавлении сообщения?
    Ответить
  • ОН 15.02.2010
    Создание ДЦ в России (например в Москве) обойдётся в сумму меньше 200-300 млн.$, даже с учётом покупки земли и строительства здания, покупки об-ия и пр. сумма не дойдёт до 80 млн.$ (и это будет лучший коммерческий ДЦ в России, например на 10 МВт).
    ДЦ Richardson - уверен, достойный проект, но информации мало. Вероятно Cisco значительную часть из 80 млн.$ потратила на покупку об-ия компании циско, по GPL :) шучу.

    А вообще, при задаче как говорил Grey72 "есть желание попилить" - можно и за 300 млн.$.

    Grey72 - а где же посмотреть Ваши творения?
    Ответить
  • ОН 15.02.2010
    ура, заработала отправка ) моя левая почта Вашему сайту претит :)
    Ответить
  • VOLK 16.02.2010
    "Зеленый ЦЕНТР" - это все правильно и понятно, но:
    1. что такое "зеленый" !!! - это экономия электроэнергии;
    или охрана окружающей среды.
    2. тема правильная и нужна.
    3. бюджет 80 300 млн....... суммы не запредельные......
    нужны расчеты.
    Ответить
  • author 16.02.2010
    В моем понимание, экономия электроэнергии или ее эффективное использование приводит к снижению загрязнения окружающей среды – это первый этап для России. А вообще зеленый ЦОД, это сооружение, построенное и функционирующее не нарушая экологию нашей планеты.
    Ответить
  • ОН 16.02.2010
    VOLK, мной делались подобные расчёты и создание ДЦ на 10 МВт получается сумма менее 80 млн. $ (можно догнать до этой суммы при покупке помещения и эл-ва у Москвы + осваивание бюджета).
    Ответить
  • grey72 24.02.2010
    OH, посмотреть можно, но это не в России. На 10МВА достаточно 55 лямов. Но это на входе. Так что оценка в 80 близка к истине.
    Ответить
  • ОН 25.02.2010
    grey72 - близка, но не дотягивает, и чем догнать до 80 я написал :) + конечно можно использовать особо "пафосные" примочки и пр.
    Про посмотреть - отлично. А где? Предполагаю, что и в инете фотки оценить можно?
    А по поводу 10МВт - можно уложиться и в значительно меньшую сумму чем 55 млн. $, при условии аренды помещения (а не выкупа) и наличии в нём эл-ва (конечно расчёт делался с учётом создания коммерческого ДЦ в России, в др. странах вероятно другие подводные камни).
    Ответить
  • grey72 25.02.2010
    ОН - про аренду помещений серьезной речи быть не может, ДЦ это актив очень дорогой, и подвергаться такому риску просто нельзя.
    В Инете, вероятно, есть разбросанные фотки, у меня же в архивах только процесс строительства.
    Скажем, Tai Po, можно по нему поиском найти: это ДЦ в Гонконге, на довольно традиционных технологиях, Tier-III без сертификации, закончили в 2007 (конец года). Всего поместится 3500 стоек.
    Ответить
  • author 25.02.2010
    grey72 не могли бы Вы мне выслать данные фото?
    Процесс строительства ЦОД такого уровня многим было бы интересно посмотреть.
    Мы на основе данных фото подготовим материал и опубликовали его тут.
    Как Вам такое предложение?
    Ответить
  • grey72 25.02.2010
    author - что касается меня, то пожалуйста. Понятное "но" я должен согласовать с владельцем. Скорее всего разрешение будет.

    Но это не самый технологически интересный проект. Я поговорю с ребятами из digital reality trust, можно подыскать что-нибудь из ряда вон. Или сделать подборку SIG Telehousing (новый центр в Нидерландах, полностью арендован Гуглом).
    Ответить
  • grey72 25.02.2010
    SIG Telehousing не против
    Ответить
  • grey72 25.02.2010
    Собственно, SIG'у дела нет, центр-то под Гугл. А у Гугла никто спрашивать не станет, т.е. не владелец. А вообще с доступом с улицы в ДЦ в Европе ой как непросто. А при этом с фотографированием - еще хуже. Security issue, прописанный в data centre policy - т.е. это нарушение со стороны ДЦ сразу всех договоров с клиентами. А вот стройка - да сколько хочешь!
    Ответить
  • author 26.02.2010
    grey72 все, что Вы считаете возможным для размещения в Интернете присылайте на author@telecombloger.ru и мы с удовольствием разместим у нас.

    P.S.
    Полезной информации никогда не бывает много, а тем более про ЦОДы да еще и в России.
    Ответить
  • ОН 26.02.2010
    во :) разговоры дошли до дела :)

    p.s. автор, готовтесь организовывать форум по тематике "ДЦ в России и в мире", для посетителей сайта :)
    Ответить
  • author 26.02.2010
    Без проблем, как только он понадобиться сразу же его организуем!
    Ответить
  • ync 26.02.2010
    По-моему необходимость назрела. Люди лезут в новость чтобы обсудить что угодно только не новость :-)
    Кстати кто-нибудь мне объясните пожалуйста чем принципиально строительство ЦОДа 10МВт отличается от 0,5МВт?
    Ответить
  • grey72 26.02.2010
    ync - принципиально - технологиями. Если Вы будуте масштабировать ДЦ с 500КВА на 10МВА, то в эксплуатации ДЦ себя просто не окупит. Ну, и технические проблемы: посчитайте, сколько будет Ампер на общей шине ИБП при мощности 10МВА: 20000 Ампер. Такую технику не выпускают на Low Voltage, а если бы и выпустили, то я близко к ней не стал бы подходить :)
    Так что существует 2 подхода: (1) Вы делаете 20 ДЦ по 500КВА в одном здании, называете это ОБЩИМ ДЦ :) (2) Вы строите одним залпом 10МВА, но это другой подход, другая техника и проч. и проч. По первому варианту в России еще можно строить, по второму - нет принципиально (тут много "но" - нет опыта, нет эксплуатационщиков, ............).
    Ответить
  • grey72 26.02.2010
    author - ок, на следующей неделе пришлю.
    Ответить
  • ОН 26.02.2010
    Согласен с grey72
    + мало кто сможет сразу заполнить ДЦ на 10 МВт (та же Синтерра и пр. крупные игроки) - соотв. экономически выгодно по первому пути идти.
    По поводу различий, я бы добавил еще и различные техн. решения, т.е. при создании мощного ДЦ целесообразно использовать др. техн. решения, кот. экономически не выгодны при стротельстве ДЦ на 0.5 МВт.
    + в Российских реалях (это не правильно), ДЦ на 0.5 МВт в основном строят забывая об элементарных нормальных условиях труда персонала (долго и упорно перечислять не буду, всё в нормативах есть). При 10МВт - подобные проблемы намного острее чувствуются т.к. приход/выход об-ия совершенно в др. кол-вах. Поэтому в 10МВт - иногда это решают на уровне.
    + важно для кого ДЦ, т.к. 0.5 МВт - может быть для нужд компании, а 10 МВт скорее всего на продажу услуг (разница в реализации и используемых системах может быть весьма значительной).
    Ответить
  • ОН 26.02.2010
    вспоминается рабочее место эксплуатационщика одного из "буржуйских" ДЦ, с панарамными окнами и видом на яблоневый сад :)
    Конечно это просто офис, ДЦ вероятно на нижнем уровне замурованый со всех сторон.
    Ответить
  • author 26.02.2010
    grey72 - отлично ждем :)
    Ответить
  • grey72 26.02.2010
    ОН - ну, центр на 10МВА тоже строится фазами, так что здесь различий нет.
    Про корпоративные центры вообще речи нет - сам подход принципиально иной: коммерческий ДЦ это прежде всего предприятие, приносящее доход. А корпоративной ДЦ - это бэкофис, затратная статья.
    Ответить
  • grey72 26.02.2010
    ОН - еще одна проблема.. Допустим, хочу я поставить чиллеры с Turbocor'ами, экономия будет приличная. Но: как только я называю страну (последний проект - Бахрейн, но это же верно и для России), мне говорят - выписывайте спеца, иначе за работу этой хреновины никто не сможет поручиться. Обучить - не выйдет, это нужен серьезный бэкграунд, безсмазочный компрессор - это космос для Бахрейнов/Россий. И это лишь только один пример. Проектируют сейчас кое-что в Москве, на 10МВА примерно, на современных технологиях, но, увы, уже известно в узком кругу, что дальше проектирования ничего не пойдет. Причем строят на моих же вендорах :) Но это случайность :)
    Ответить
  • grey72 26.02.2010
    ОН - и проектировщики - это отдельная песня. Здесь их нет, т.е. есть, но связываться... Поэтому проектируют все в Европе по прямым договорам.
    Это техническая сторона вопроса, а еще тут такая возня подковерная начинается, как только что-то серьезное замелькает - туши свет. Лишь бы попилить, результат никому не нужен. Хорошо, что еще у меня фирма европейская... Посылать можно грамотно.
    Ответить
  • ync 27.02.2010
    А что вы имеете ввиду под термином low voltage?
    У АРС, Chloride есть системы которые вполне себе собираются в параллель до 10 МВА. И ничего в них сверхъестественного нет. Думаю и в России найдется немало людей, для которых не составит проблем спроектировать подобную систему.
    В наш век модульности и параллельности нет необходимости городить моноблок 10 МВА. Так что различий в подходе к проектированию и строительству я пока особенных не вижу. Эксплуатация - да, огромная проблема.
    Или вы всё-таки ставите ИБП 1 блоком 10 МВА и один чиллер на 10 МВт холода?
    Ответить
  • ОН 27.02.2010
    1) Про турбокор в России - не могу согласиться. Несколько подобных инсталяций работает и всё прекрасно (подразумеваю, что на нескольких объектах подобные машины в России работают).
    "Причем строят на моих же вендорах Но это случайность" - не очень понял :)
    1.1) Сомневаюсь, что будут строить коммерческий ДЦ на 0.5 МВт т.к. по экономике не выгодно. Соотв. делаю вывод: на 0.5МВт - корпоротивный ДЦ (или коммерческий гов... ДЦ типа Филанко на Курской), 10МВт - коммерческий - вот и одно из различий.

    2) Про проектирование - работал с толковыми людьми в России. Их действительно мало, но есть + конечно контролировать нужно, чтобы не изобразили чего не попадя :)
    А в Европе где заказываете?
    Про возьню - согласен на 100% - МРАК!)) - "право первой брачной ночи" и др. народные перлы вспоминаются. Общался как-то с дир. одной ИТ компании, так по телефону на 1-ну мою фразу приходилось 10-15 ее фраз со скоростью работы ручного пулемёта :) Взрыв мозга - вероятно ее хобби.)

    3) По поводу попелить - уже с Вами обсуждали :) Даже сейчас, предлагая реализовать "правильный" ДЦ, инвесторы щуряться и говорят: "Как бы срок акупаемости уменьшить..." А так не хочется очередное го.... строить.

    4) ync - дружною толпой пытались донести до Вас, что различия значительные. Вы или не слышите или не хотите слушать. Ок :)
    "По поводу различий, я бы добавил еще и различные техн. решения, т.е. при создании мощного ДЦ целесообразно использовать др. техн. решения, кот. экономически не выгодны при стротельстве ДЦ на 0.5 МВт." - как пример, можно посмотреть почему ставят чиллера или просто внешние блоки кондеев - в общем это простая экономика, всё нужно просчитать.
    Ответить
  • grey72 27.02.2010
    ОН -

    1) "работает" - это замечательно. Вы готовы подписать SLA? Производители не готовы предоставить гарантий работы турбокоров, вот в чем дело. А то, что они работают - конечно :)

    2) Да по всей Европе. Я сам в Европе :)
    3) А что им срок окупаемости? Они, верно, из мешка деньги достают? :) А если это кредитная линия, то я не понимаю таких "инвесторов".
    Ответить
  • ОН 27.02.2010
    кстати: размеры чиллера на 1200-1600 кВт примерно 2.5 на 12 метров, интересно посмотреть на 10 000 кВт чиллер :)

    ync - в соотв. с нормативной док-ей по строительству подобных объектов, предлагаю поставить чиллер(ы) с резервированием N+1.
    И просчитать, нужен ли чиллер? (экономически, в зав-ти от целей-задач и размеров проекта)


    А про эксплуатацию - если правильно организовать работу всех служб, то я не вижу особой разницы в эксплуатации между 0.5МВт и 10МВт ДЦ. Вы правы - это проблема, но при желании - решаемая.
    Ответить
  • grey72 27.02.2010
    ync - low voltage и есть: 0,4 киловольта. С этим давно не работал, только medium - от 6 до 24 кВ. Соберите мне на общую шину 0.4кВ 10МВА, пожалуйста :) Амперы посмотрите (около 20000), и попробуйте найти нужный switchboard. А заодно сечение проводников общей шины проверьте - вам рельсы не хватит. При любой проблеме с таким оборудованием электрик будет ходить под себя и увольняться задним числом :) А по части АРС и прочих, простите, дилетантов-врунов я даже обсуждать не хочу.
    Ответить
ОСТАВИТЬ ОТЗЫВ



События и мероприятия
    нет событий, чтобы показывать
Партнеры