Фото экскурсия в дата-центр компании «Мегафон-Сибирь»
- В 2008 – 2009 гг. компании принялись с энтузиазмом меряться мощностью своих дата-центров. Несмотря на сокращение финансирования, в этом году несколько раз с шумихой открывали «самый большой дата-центр за Уралом». Центр обработки данных компании «Мегафон-Сибирь» не стал исключением.
- На прошлой неделе «Мегафон-Сибирь» запустил в эксплуатацию собственный дата-центр общей площадью 2 тыс. кв. м. и стоимостью 800 млн руб. Дата-центр был построен за 1,5 года, планируется, что он обеспечит потребности компании до 2014 г. Там разместится коммутационное оборудование, которое будет контролировать работу всех базовых станций «Мегафона» в Западной Сибири, биллинговые и другие технологические системы, сеть хранения данных SAN, сеть передачи данных, офисные информационные системы и т.д.
Технические и эксплуатационные параметры дата-центра «Мегафон-Сибирь»
Разрешенная мощность |
1,6 МВт |
Суммарная мощность дизель-генераторных установок |
1,9 МВт |
Общая площадь |
2 тыс. кв. м. |
Площадь фальшпола |
1 тыс. кв. м. |
Максимальное количество шкафов с оборудованием зала ЦОД |
100 |
Максимальная мощность на шкаф зала ЦОД |
70 кВт |
Максимальное количество шкафов зала коммутации |
240 |
Максимальная мощность на шкаф зала коммутации |
6 кВт |
Способ отвода тепла |
Чиллерные установки |
Резервирование климатических систем |
2N (для чиллеров n+1) |
Резервирование источников бесперебойного питания |
2N+1 |
Резервирование дизель-генераторных установок |
N+1 |
Максимальное время автономной работы без дизель-генераторной установки (для критичных систем) |
До 4-х часов |
Работа дизель-генераторной установки без дозаправки при полной загрузке |
До 12 часов |
Пропускная способность транспортной сети |
Более 400 Гбит/с |
- Возле здания дата-центра стоят охлаждающие чиллеры. Сейчас дата-центр заполнен только на треть, поэтому оборудование охлаждают всего два чиллера. В будущем планируется добавить еще два. Чиллер охлаждает за счет температуры окружающей среды, охлаждающий компрессор включается только когда на улице теплее 4 градусов. Поскольку в Сибири холода стоят большую часть года, компрессор включается редко. Работа чиллеров позволяет за час экономить около 300 киловатт (примерно 600 рублей).
- Между чиллерами есть место для установки еще двух агрегатов.
- Дата-центр питается от двух трансформаторов мощностью 2 МВт каждый.
- В случае отключения электроэнергии дата-центр будет питаться от двух дизель-генераторных установок. В дата-центре всегда находится запас топлива, достаточный для работы генератора в течение 12 часов.
- Центр оснащен системами газового пожаротушения. При этом, система пожаротушения проведена как в помещениях, так и под фальшполами.
-
- Система пожаротушения устроена так, что она не сработает, если в помещении находятся люди. Но, на всякий случай, в помещениях имеются противогазы.
- ИБП APC Symmetra;
- Аккумуляторы ИБП APC Symmetra.
- Панель управления ИБП APC Symmetra. Сотрудники центра шутят, что оранжевая кнопка означает End Of Megafon.
-
Шкаф батарейных предохранителей.
- Серверная дата-центра заполнена чуть меньше чем на половину. В ней размещаются собственные серверы компании. Однако, если будет заинтересованность клиентов, компания готова оказывать услуги хостинга.
- Между серверными шкафами стоят кондиционеры. Мощность каждого – в 30 раз больше обычных бытовых кондиционеров.
- Высота фальшпола – 1 метр. Под ним проложено оптоволокно и системы вентиляции. На случай затопления пол под фальшполом под наклоном – вода будет собираться в одном месте и стекать в канализацию. Фальшпол выдерживает вес 2,5 тонны на кв. м. Высота потолков в дата-центре – 12 метров. До крыши расположен фальшпотолок и водоотводящая мембрана.
- В это помещение заходит холодная вода из чиллеров – дальше она поступает в систему кондиционирования.
- На случай полного выхода из строя чиллерной установки в системе предусмотрены два резервуара с водой по 800 литров. Вода в них поддерживается в постоянной температуре 7 градусов, этого хватит для автономной работы дата-центра в течение 15 минут – ровно столько, чтобы корректно завершить работу всех серверов и попрощаться с жизнью.
-
ИБП Riello.
- Зал ЭПУ (электропитающие установки) технического департамента.
- Зал ЭПУ, как и другие залы, заполнен примерно на половину – его будут наполнять оборудованием до 2012 г.
Автор: Юлия Пастухова
Источник: nag.ru
автор, как Ваше мнение на сие творение?_)
Впечатление честно говоря сложилось не до конца, вот если бы самому побывать наверное тогда я бы смог оценить все достоинства и недостатки этого ЦОД. С трудом себе представляю как они собираются охлаждать 70кВтую стойку, не видел не одной такой технологии. Да и стоимость проекта настораживает, мне кажется такой проект можно было бы реализовать на порядок дешевле.
Надо же какая красота получилась! Видел этот проект на бумаге и лично знаком с ГИПом и архитектором этого проекта.
Теперь они работают в компании ООО «Телекомпроект» (Санкт-Петербург)
Серверная дата-центра заполнена чуть меньше чем на половину. В ней размещаются собственные серверы компании. Однако, если будет заинтересованность клиентов, компания готова оказывать услуги хостинга.