Строительство ЦОД Вконтакте, Часть I

9 апреля 2012

Предлагаем Вашему вниманию фото-отчет по строительству первого собственного ЦОД Вконтакте в Санкт-Петербурге. Проект получился интересным, много нестандартных решений, которые оставляют порой странное впечатление от реализации.

Для строительства ЦОД было выбрано промышленное здание в виде 22 метрового куба, которое по замыслам строителей полностью избавляет от необходимости наличия кондиционеров и чиллерных систем.

Использование бетонных колон позволило снизить металлоёмкость конструктива модуля ЦОД на 15 тыс. кг. металла.

Произведена установка серверов в стойках через один юнит, для снижения локального перегрева. По результатам горячего лета 2011 года, из строя вышло только три жестких диска и то по заверениям Вконтакте это были очень, очень старые диски. Результат прямо сказать выдающийся при отсутствии холодильных установок в ЦОД

И многие другие инновационные решения от зеленого ЦОД Вконтаке, в более чем 180 фотографиях.

Строительство ЦОД Вконтакте, Часть II
По материалам: http://vk.com/album11_123154189

Всего комментариев: 10

  • Максим
    Автор: Максим Добавлено 10 апреля, 2012 в 06:41

    Не так интересно. Фото пачкой и я могу выложить. Гораздо интереснее читать фото с отчетом, где почти к каждой фотографии есть описание, описываются решения с описанием примененных технологий.
    ИМХО отчет так на 2, ну максимум троечку по школьной, пятибальной, системе оценки.

    Ответить
  • Skip
    Автор: Skip Добавлено 10 апреля, 2012 в 08:09

    Интересно, а как подобного рода проекты реализованы с точки зрения процедур экспертизы и согласования. Кто им конструктив считал, чтобы делать колонны без армирования, и самое главное зачем? Охлаждают я так понимаю наружным воздухом, что ж… наблюдайте за серверами, будет интересно посмотреть статистику выхода из строя. Хотя для VK это по барабану — сервисы не критичные.

    Ответить
  • grey72
    Автор: grey72 Добавлено 10 апреля, 2012 в 09:44

    Skip, что за вопрос: это же в России строится? 🙂 Рухнет — и ладно, люди-то — не критичный ресурс, чай не нефть

    Ответить
  • enot
    Автор: enot Добавлено 10 апреля, 2012 в 12:42

    «По результатам горячего лета 2011 года» — которое горячим особо не было. Будем посмотреть, заработает ли вконтактик действительно горячим летом типа 2010-го, когда в Питере было +37С.

    Интересно также что насчет фильтрации на приточке. И пожаротушения всего этого добра.

    Ответить
  • Сергей
    Автор: Сергей Добавлено 10 апреля, 2012 в 14:46

    А вы думаете, что в Америке или еще где-то лучше строят? Нормальная стройка. У нас например есть такие фотки на ЮП, что взглянешь и остолбенеешь. А на самом деле все нормально.

    По красным гофрам кабели силовые плохо тянутся, личный опыт. Особенно если их муровать в бетон и плохо изолировать стыки.

    Интересно, что это за канальные вентиляторы в стене (фото 177 или №8 с конца) — эдакий аварийный фрикулинг что-ли, или охлаждение трансформаторов?

    Ответить
  • grey72
    Автор: grey72 Добавлено 10 апреля, 2012 в 17:44

    Сергей, наверное вентиляция дизелей. Не знаю, как строят в Штатах, но для Европы это недопустимо. Здесь за такое выгонят.

    Ответить
  • enot
    Автор: enot Добавлено 10 апреля, 2012 в 18:00

    Это не аварийный фрикулинг. Это если верить автору и есть охлаждение серверов.

    Ответить
  • Алексей
    Автор: Алексей Добавлено 10 апреля, 2012 в 18:20

    Интересно!
    Можно поподробнее:
    1. Пожаротушение отсутствует вообще? Нигде не увидел труб.
    2. Как устроена система кондиционирования? По догадкам просто стоит кучка вентиляторов на забор и наверное такая же кучка -2 шт. на выброс, но хотелось бы точнее 🙂
    3. Общая мощность всего ЦОД, а то скоро в маркетинг с кв.м. недалеко скатиться

    Ответить
  • АК
    Автор: АК Добавлено 10 апреля, 2012 в 18:34

    конкурент «IT Сарая» ))

    Ответить
  • Сергей
    Автор: Сергей Добавлено 11 апреля, 2012 в 14:23

    Главное в коммерческом проекте — коммерческая эффективность. Если инвестор считает нужным поставить серверы под навесом на улице, осознавая возможные риски для сервиса — почему нет. Порой дешевле дать этому добру доработать до помойки и выкинуть с легким сердцем, чем строить вокруг него инфраструктуру за сотни миллионов.

    Ответить

Оставить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *