Добавить в избранное
Новости ЦОД и Дата-Центров
Все, что Вам нужно знать о ЦОД

Фото экскурсия в дата-центр компании «Мегафон-Сибирь»

23.12.2009
|
author
|
Раздел: Новости, Фотоэкскурсии в ЦОД
|

В 2008 – 2009 гг. компании принялись с энтузиазмом меряться мощностью своих дата-центров. Несмотря на сокращение финансирования, в этом году несколько раз с шумихой открывали «самый большой дата-центр за Уралом». Центр обработки данных компании «Мегафон-Сибирь» не стал исключением.
На прошлой неделе «Мегафон-Сибирь» запустил в эксплуатацию собственный дата-центр общей площадью 2 тыс. кв. м. и стоимостью 800 млн руб. Дата-центр был построен за 1,5 года, планируется, что он обеспечит потребности компании до 2014 г. Там разместится коммутационное оборудование, которое будет контролировать работу всех базовых станций «Мегафона» в Западной Сибири, биллинговые и другие технологические системы, сеть хранения данных SAN, сеть передачи данных, офисные информационные системы и т.д.

Технические и эксплуатационные параметры дата-центра «Мегафон-Сибирь»

Разрешенная мощность

1,6 МВт

Суммарная мощность дизель-генераторных установок

1,9 МВт

Общая площадь

2 тыс. кв. м.

Площадь фальшпола

1 тыс. кв. м.

Максимальное количество шкафов с оборудованием зала ЦОД

100

Максимальная мощность на шкаф зала ЦОД

70 кВт

Максимальное количество шкафов зала коммутации

240

Максимальная мощность на шкаф зала коммутации

6 кВт

Способ отвода тепла

Чиллерные установки

Резервирование климатических систем

2N (для чиллеров n+1)

Резервирование источников бесперебойного питания

2N+1

Резервирование дизель-генераторных установок

N+1

Максимальное время автономной работы без дизель-генераторной установки (для критичных систем)

До 4-х часов

Работа дизель-генераторной установки без дозаправки при полной загрузке

До 12 часов

Пропускная способность транспортной сети

Более 400 Гбит/с

Возле здания дата-центра стоят охлаждающие чиллеры. Сейчас дата-центр заполнен только на треть, поэтому оборудование охлаждают всего два чиллера. В будущем планируется добавить еще два. Чиллер охлаждает за счет температуры окружающей среды, охлаждающий компрессор включается только когда на улице теплее 4 градусов. Поскольку в Сибири холода стоят большую часть года, компрессор включается редко. Работа чиллеров позволяет за час экономить около 300 киловатт (примерно 600 рублей).
Между чиллерами есть место для установки еще двух агрегатов.

Дата-центр питается от двух трансформаторов мощностью 2 МВт каждый.

В случае отключения электроэнергии дата-центр будет питаться от двух дизель-генераторных установок. В дата-центре всегда находится запас топлива, достаточный для работы генератора в течение 12 часов.
Центр оснащен системами газового пожаротушения. При этом, система пожаротушения проведена как в помещениях, так и под фальшполами.

 

Система пожаротушения устроена так, что она не сработает, если в помещении находятся люди. Но, на всякий случай, в помещениях имеются противогазы.
ИБП APC Symmetra;
Аккумуляторы ИБП APC Symmetra.
Панель управления ИБП APC Symmetra. Сотрудники центра шутят, что оранжевая кнопка означает End Of Megafon.

Шкаф батарейных предохранителей.

Серверная дата-центра заполнена чуть меньше чем на половину. В ней размещаются собственные серверы компании. Однако, если будет заинтересованность клиентов, компания готова оказывать услуги хостинга.

Между серверными шкафами стоят кондиционеры. Мощность каждого – в 30 раз больше обычных бытовых кондиционеров.
Высота фальшпола – 1 метр. Под ним проложено оптоволокно и системы вентиляции. На случай затопления пол под фальшполом под наклоном – вода будет собираться в одном месте и стекать в канализацию. Фальшпол выдерживает вес 2,5 тонны на кв. м. Высота потолков в дата-центре – 12 метров. До крыши расположен фальшпотолок и водоотводящая мембрана.
В это помещение заходит холодная вода из чиллеров – дальше она поступает в систему кондиционирования.
На случай полного выхода из строя чиллерной установки в системе предусмотрены два резервуара с водой по 800 литров. Вода в них поддерживается в постоянной температуре 7 градусов, этого хватит для автономной работы дата-центра в течение 15 минут – ровно столько, чтобы корректно завершить работу всех серверов и попрощаться с жизнью.

ИБП Riello.

Зал ЭПУ (электропитающие установки) технического департамента.
Зал ЭПУ, как и другие залы, заполнен примерно на половину – его будут наполнять оборудованием до 2012 г.

Автор: Юлия Пастухова
Источник: nag.ru



  • ОН 24.12.2009
    автор, как Ваше мнение на сие творение?_)
    Ответить
  • author 25.12.2009
    Впечатление честно говоря сложилось не до конца, вот если бы самому побывать наверное тогда я бы смог оценить все достоинства и недостатки этого ЦОД. С трудом себе представляю как они собираются охлаждать 70кВтую стойку, не видел не одной такой технологии. Да и стоимость проекта настораживает, мне кажется такой проект можно было бы реализовать на порядок дешевле.
    Ответить
  • Дмитрий 21.01.2010
    Надо же какая красота получилась! Видел этот проект на бумаге и лично знаком с ГИПом и архитектором этого проекта.
    Теперь они работают в компании ООО "Телекомпроект" (Санкт-Петербург)
    Ответить
  • Виктор 13.11.2015
    Серверная дата-центра заполнена чуть меньше чем на половину. В ней размещаются собственные серверы компании. Однако, если будет заинтересованность клиентов, компания готова оказывать услуги хостинга.
    Ответить
ОСТАВИТЬ ОТЗЫВ



Партнеры