Добавить в избранное
Новости ЦОД и Дата-Центров
Все, что Вам нужно знать о ЦОД

Стоимость услуг по размещению оборудования в ЦОД в 2010-2011 году будет снижаться несмотря ни на что!

datacenter
Уже сейчас, прослеживается тенденция по снижению стоимости аренды стоечного пространства в Дата-Центрах Москвы и Санкт-Петербурга, площадью более 100 кв. метров, стандарта TIER II, c потреблением электричества от 5 до 7 кВт на стойку.
Причин в данном явлении несколько и я попробую осветить их в данной статье.

I

Первой причиной, серьезно повлиявшей на спрос услуг Дата-Центров, стал все тот же пресловутый экономический кризис, разразившейся в России осенью 2008 года, последствия, которого еще долго будут ощутимы в данном секторе экономике. Об этом свидетельствует исследование аналитиков IDC, сделанное совсем недавно. Не смотря на то, что в третьем квартале 2009 года прослеживается положительные тенденции на Российском рынке серверов стандартной архитектуры х86, в годовом выражении динамика остается негативной, падение продаж составило 52% в денежном эквиваленте.
Взаимосвязи между падением рынка серверов и рынком Дата-Центров по-моему очевидна.

II

Второй причиной стало появление значительных площадей ЦОД, сданных в коммерческую эксплуатацию в 2009 году. В 2010 году планируется к запуску еще несколько крупных ЦОД, что еще больше подхлестнет конкуренцию в данном сегменте рынка.
Построив новый ЦОД, оператор сразу же сталкивается с проблемой недостаточности спроса на его услуги. В попытках хоть как-то начать возвращать сделанные инвестиции, он пускается в гонку по снижению цен. Остальные участники рынка, имеющие уже на 80-90% загруженные Дата-Центры, начинают наблюдать отток своих клиентов. Смена Дата-Центра клиентом зачастую связана как с более высокими ценами, по сравнению с только что открывшимися Дата-Центрами, так и в большей степени с техническими причинами, периодически происходящими в этих Дата-Центрах, что все больше и больше вызывает недоверие клиентов, связаное с отсутствием уверенности в надежности площадок, на которых они размещаются. Когда отток клиентов становится массовым, желая хоть как-то сохранить выручку, Дата-Центрам приходится включиться в гонку по снижению цен.

III

До недавнего времени, формирование рынка услуг ЦОД в Московском регионе происходило не только за счет компаний, базирующих в столице, но и за счет предприятий, находящихся в Санкт-Петербурге. В основном, это было связано с более высокой стоимостью трафика в серверной столице, а также с недостатками в наличии необходимого кол-ва площадей и мощностей Дата-Центров Петербурга и, как следствие, качества обслуживания и надежности.
С начала 2008 года ситуация стала меняться, стоимость трафика практически выровнялась с Москвой, были запущены несколько Дата-Центров, отвечающих требованиям многих компаний размещающихся в Москве, а стоимость услуг осталась значительно ниже столичных.
На протяжении 2009 года Дата-Центры в северной столице продолжали открываться с завидной регулярностью, тем самым, увеличивая конкуренцию на рынке и все больше увеличивая разницу в стоимости услуг Московских и Питерских ЦОД.
Происходящие изменения на рынке не остались незамеченными компаниями, имеющими головной офис в Санкт-Петербурге и размещающими оборудование в Московских Дата-Центрах. Все больше и больше таких компаний начинают поэтапно перевозить оборудование в Санкт-Петербург. По всей видимости, пик оттока клиентов из Московских Дата-Центров придется на 2010-2011 год, что еще больше обострит ситуацию на Московском рынке.

IV

Рынок услуг Центров Обработки Данных еще не сформировался и по всей видимости, для этого понадобиться еще как минимум 2-3 года. Аналитики перестарались в оценках рынка, что привело к изменению соотношения спроса и предложения не в лучшую сторону для операторов ЦОД.
Средний и малый бизнес еще не до конца понимает для чего необходимо размещать оборудование в Дата-Центрах и не стремится его туда ставить. Крупному же бизнесу требуется Дата-Центры гораздо более высокого класса, чем имеются в России.
Вдобавок ко всему, Дата-Центры не охотно идут на подписание с клиентом соглашения SLA, что тоже сказывается негативно на рынке.

В более выигрышной ситуации будут находиться Дата-Центры стандарта TIER III, предлагающих клиентам стойки с максимальной мощностью до 30 кВт. Таких Дата-Центров в Москве единицы, а в Санкт-Петербурге еще нет, но есть несколько близких к этим показателям. Вложившись в более дорогую инфраструктуру, Дата-Центры будут привлекать клиентов, давно находящихся в поиске Дата-Центров с высокими параметрами отказоустойчивости и сервиса, при этом, не сильно обращая внимание на стоимость услуги.



  • Ivan Karpoukhin 29.11.2009
    Начала правильное, выводы не совсем. Плохо будет тем дц, которым нечем забивать стойки. То есть, тем что не умеют, не хотят, не знают, не ищут.

    А киловатт в стойке может быть хоть 100, клиентов на втыкание блейдов и твинов не так много. Опять же их вполне экономически выгодно втыкать по 2 штуки блейдов в 6 киловатную стойку при цене в 40 тр в месяц, чем по 4 штуки в 16 киловатную, при цене в 120 тр.

    И датацентр может объявить себя tier IV - но не покажет не второй дизель, не два ввода с разных сторон по первой категории, не тысячи мелких вещей описанных в TIA-942
    Может дружить только с одним аплинком, у которого петлевая связность с половиной рунета и т.д. и т.п.

    А у цен есть естественный порог - цена на аренду, персонал и электричество. Меньше 30 тр за 4 киловатную стойку падать некуда и незачем.
    Ответить
  • Ivan Karpoukhin 29.11.2009
    Кстати, про крупный бизнес и Tier 4
    Крупному бизнесу, банкам, нефтянке, государству никогда не составляло проблемы построить свой ДЦ. Зачем ему пользоваться чужим и иметь некислую перспективу потерять свои данные - мне не понятно. Разве что, иметь резерв на стороне.
    Ответить
  • author 29.11.2009
    Блейд, при загрузки в 60-70%, выделяет порядка 4 кВт тепла. Получается, что две таких железки будут выделять в среднем около 8 кВт. При размещении блейд серверов, обычно устанавливают дисковые массивы, в зависимости от их размеров, тепловыделение в среднем может достигать 4-6 кВт. Итого, по самым скромным подсчетам, мы получаем 12 кВт тепла на стойку. Тепловыделение более 10 кВт потребует другого подхода к проектированию и инженерным система ЦОД, чем при 5-7 кВт на стойку, а стоимость квадратного метра ЦОД будет в несколько раз выше.
    На мой взгляд, в ближайшие несколько лет в более выигрышной ситуации будут как раз высокотехнологичные и отказоустойчивые ЦОД, в которых можно будет снять до 30 кВт тепла со стойки и получить сервис высокого качества, а без наличия серьезной инфраструктуры и высококлассных специалистов, реализовать его будет невозможно. Чем больше инвестиции в ЦОД, тем более качественная инфраструктура, и мне кажется логично предположить, что в Дата-Центрах, которые могут охлаждать от 20 до 30 кВт выделяемого тепла со стойки, инфраструктура и отказоустойчивость будет на порядок выше, чем в ДЦ от5 до 7 кВт на стойку.

    Что же касается крупных корпорации, по всей вероятности лишь немногие готовы покупать или строить собственное здание и вкладываться в инфраструктуру ЦОД. Такие вложения будут выгодны только тем компаниям, у которых есть потребность в вычислительных мощностях в значительном объеме. Тратить колоссальные деньги на 3 - 5 стоек никто не будет, тем более, что в период кризиса очень сложно убедить акционеров выделить такие деньги на ИТ.
    Помимо серьезных капитальных затрат, появляются довольно ощутимые операционные затраты на обслуживание инфраструктуры ЦОД и квалифицированных специалистов.
    Совсем недавно я проводил небольшое исследование, из которого я сделал заключение, что аренда более 5 стоек в Дата-Центре в финансовом плане менее выгодна, чем организация собственного ЦОД.
    Компании, которые все-таки построили свой ЦОД, сталкиваются с проблемой резервирования инфраструктуры, что и приводит к высокой концентрации высокопроизводительного оборудования в стойке, что напрямую взаимосвязано с теплоотводом от 20 до 30 кВт на стойку.

    Иван, в ближайшее время я бы хотел разместить тут Ваш фото очет по строительству Дата-Центра, Вы не будете против?
    Ответить
  • Ivan Karpoukhin 30.11.2009
    Ну насчет энергопотребления блейдов я бы и поспорил, но , увы, нет двух забитых блейдов на руках. И желания такоего, по ряду субъективных причин, нет. Хотя, есть желание попробовать купить несколько твинов.

    А насчет фотоотчета о строительстве, пожалуйста. Правда, фото там любительские и поднаготная не всегда в нашу пользу :)
    Ответить
  • ОН 08.12.2009
    Отказоустойчивость и инфраструктура - не привязаны к количеству тепла снимаегомо со стойки, а именно, можно снимать со стойки 30 кВт при этом не выполнив резервирование критически важных систем (впоминая TIER и пр. умные документы).
    То, что потребитель начнёт смотреть на инфраструктуру ДЦ в кот. размещает своё оборудование - это наши с Вами желания и хотелки. Я обсолютно искренне считаю, что так должно быть, но умом Россию не понять .... и далее по тексту чем её не измерить.
    Про банки и др. крупные компании, на строительство собств. ДЦ - тратили, тратят и будут тратить. Но с Вашими довыдами по поводу значительной стоимости создания ДЦ на 3-5 стоек согласен. Но зачастаю сохранение критически важной информации под боком - важнее (как оценить утрату базы-данных клиентов или еще чего-либо). + уверен, банки и др. крупные клиенты пойдут в коммерческие ДЦ только после того, как рынок "прекратит кошмарить" :)

    p.s. согласен и Иваном: кто появился первым, курица или яйцо?_) Вначале был спрос, кот. и позволяет строить ДЦ.
    Ответить
  • author 09.12.2009
    Я говорю о том, что если Дата-Центр строится пот инфраструктуру тепловыделения на стойку 30кВт, что уже колоссальные инвестиции, то скорей всего денег на организацию качественной инфраструктуры всего Дата-Центра жалеть тоже не будут в отличии от обычных ДЦ с 5кВт на стойку.

    Уже сейчас я начинаю замечать, что почти каждый клиент, перед тем как размещать оборудование в Дата-Центре хочет чтобы ему провели экскурсию по нему. Появляются такие, которые не только хотят посмотреть, но и узнать процедуру работы инженеров, сроки реакции и обслуживания оборудования Дата-Центра.

    Сейчас строить и обслуживать собственные ДЦ могут только крупнейшие финансовые учреждение России, все остальным становится очень накладно.
    Ответить
  • ОН 09.12.2009
    Будем считать - согласились_)))
    + конечно медленно, неохотно (со стороны ДЦ) подползаем к SLA_))) - главное зло для ДЦ - ведь могут и в суд подать, денег потребовать - УЖОС_)
    Ответить
  • author 09.12.2009
    К сожалению, сейчас большая часть ДЦ просто не готовы к SLA не в плане инфраструктуры ну тем более не морально.
    Запущенные в 2008-2009 году Дата-Центр будут идти на это более охотнее, имея новую инфраструктуры и пустые автозалы.
    Ответить
  • ОН 09.12.2009
    это да. Вот это и обидно - идут от безысходности, а не от желания делать своё дело хорошо (ну это уже эмоции пошли).
    + учитывая нынешние невысокие цены, ДЦ может и подпишут SLA, но не стоит ждать чудес - работать с 0 рентабельностью размещая клиентов - бред, а SLA дополнительная статья расходов на всё.

    p.s. клиенты в России ставят оборудование в уё.... ДЦ не особо вникая в инфраструктуру (примеры таких ДЦ приводить не буду), о каком SLA сейчас говорить? Но идея правильная!)))
    Ответить
  • vk 16.03.2010
    2 author
    в Санкт-Петербурге есть ДЦ со стойкам до 30кВт.
    Дата-центр ПЕТЕР-СЕРВИС на Свеабргской ул. 10 предлагает стойки типа RACKS с отводом тепла до 30 кВт на стойку. Полностью забитая корзина блейдов потребляет в диапазоне 5-6 кВт (по ТС до 7.5кВт).
    В стойку RACKS их встает 4 штуки. Охлаждение в RACKS делается водой на уровне стойки (InRow).
    Ответить
  • author 16.03.2010
    2 vk
    Очень сомневаюсь, что в ЦОД Петер-Сервиса, есть хоть один шкаф, в которой можно разместить оборудование выделяющее 30кВт тепла и оно там не сгорит! По хорошему охлаждение такого шкафа нужно резервировать по схеме N+N, значит суммарное отведения тепла от стойки должно быть порядка 60кВт. Представляете, что будет с оборудованием, если не дай бог система кондиционирования отключится секунд на 15?
    Кстати блед-сервера в пиковых нагрузках могут потреблять порядка 12.5кВт с форм-фактором 10U!
    Ответить
ОСТАВИТЬ ОТЗЫВ



Партнеры