Добавить в избранное
Новости ЦОД и Дата-Центров
Все, что Вам нужно знать о ЦОД

В 2014 году гонка за зелеными ЦОД продолжится

будущее ЦОДЧуть менее 60 лет назад человечество начало покорение космоса. На амбициозные проекты по разработке все более совершенных ракет тратились баснословные даже по сегодняшним меркам суммы. Но какое отношение все это имеет к индустрии ЦОД, спросите вы, и как космонавтика связана с текущим положением интересующего нас IT-сегмента и его развитием в остальной части 2014 года? Все просто: новая экономическая реальность такова даже крупные организации вроде НАСА больше не могут позволить себе строительство собственных космических кораблей, отдавая подобные инициативы на откуп аутсорсингу. Нечто подобное происходит и с корпоративными центрами обработки данных. Крупные корпорации и даже солидные финансовые организации хотят сконцентрировать ключевые ресурсы и капитал на своей основной деятельности. Поэтому они все чаще и активнее сотрудничают с колокейшн-провайдерами и поставщиками облачных платформ вместо строительства новых ЦОД и использования уже введенных в эксплуатацию собственных дата-центров. Тем не менее, отнюдь не все организации вписываются в подобный тренд – исключением являются компании, чей бизнес завязан на различных интернет-сервисах.

В прошлом году с завидной регулярностью появлялись новости про очередные «гипермасштабные» ЦОД, возводимые практически во всех регионах мира. И в большинстве случаев каждый подобный объект прямо или косвенно рекламировался проектировщиками как «зеленый ЦОД», или «дата-центр с рекордно низким коэффициентом PUE» или «серверная ферма, запитываемая с помощью экологически устойчивых возобновляемых источников энергии». Причем незаметно для многих начался новый виток гонки за идеальным PUE 1.0: теперь все больше и больше компаний начинают рапортовать о близком к единице коэффициенте в своих вновь построенных ЦОД, приводя данные по этому показателю с точностью до трех знаков после запятой (1.0xx). Однако это отнюдь не означает, что инициативы по повышению энергоэффективности остаются уделом лишь новых ЦОД: владельцы дата-центров, которые были введены в эксплуатацию в отдаленном и не очень прошлом также пытаются оптимизировать свои системы, ведь речь идет о возможности добиться значительного сокращения эксплуатационных расходов. Действуя в рамках ограничений, накладываемых особенностями конструкции здания и системы охлаждения, они проводят «тонкую настройку» доступного инфраструктурного оборудования, оптимизируют воздушные потоки (с помощью наиболее очевидных, простых и хорошо известных методов вроде изоляции воздуховодов) и, если финансовые возможности позволяют, внедряют DCIM-решения.

Свой вклад в повышение энергоэффективности ЦОД также вносят производителями серверного оборудования и разработчиками программного обеспечения корпоративного класса. Производители “железа” уже осознали, что подобные продукты сейчас наиболее востребованы и начали развивать свой бизнес в соответствующем направлении. Причем одни из наиболее интересных инициатив в этой области касаются усовершенствования серверных процессоров. Как известно, издержками постоянного повышения производительности CPU по закону Мура являются рост энергопотребления и увеличение тепловыделения кремниевых чипов. Чипмейкерам все это хорошо известно, и они уже не первый год ведут поиск действенных механизмов улучшения соотношения производительности на ватт. Именно поэтому в 2014 году может наблюдаться рост спроса на серверы, в основе которых лежат процессоры с архитектурой ARM, которые характеризуются низким энергопотреблением и вполне приемлемой производительностью. По мнению экспертов, в ближайшее время эти чипы завоюют значительную часть рынка аппаратного обеспечения для гипермасштабных дата-центров.

В области программного обеспечения самым интересным с точки зрения повышения энергоэффективности ЦОД направлением является DCIM. Уже сейчас подобное ПО помогает операторам дата-центров повысить энергоэффективность физической (серверов, сетевого и вспомогательного оборудования) и виртуализованной инфраструктуры путем отслеживания состояния тех или иных ее элементов и формирования соответствующих рекомендации по их оптимизации. Но девелоперы непрерывно работают над улучшением функционала своих продуктов, поэтому мы смело можем ожидать дальнейшего роста возможностей DCIM в будущем. Кроме того, дальнейшее усовершенствование механизмов виртуализации в сочетании с технологией SDDC (Software-Defined Data Center или программно-определенный ЦОД) также должно способствовать повышению эффективности эксплуатации физического серверного и сетевого оборудования.

Очевидно, что в 2014 году все больше внимания будет уделяться минимизации углеродного следа дата-центров путем использования выделяемого IT-оборудованием избыточного тепла для обогрева офисных помещений рядом с ЦОД, перевода инфраструктуры дата-центра на электропитание постоянным током, а также использования иммерсионного жидкостного охлаждения. Тем не менее, даже при достижении коэффициента PUE на уровне 1.001 единицы потери электроэнергии на обеспечение работоспособности вспомогательного оборудования никуда не денутся (и каждый ватт IT-нагрузки будет становиться причиной дополнительных затрат на электроэнергию для обеспечения работоспособности электромеханического оборудования и систем охлаждения ЦОД). Поэтому необходимо также рассмотреть возможность удешевления поступавшего в дата-центр электричества. Добиться этого можно среди прочего путем установки рядом с ЦОД небольшой электростанции на базе топливных элементов, вырабатывающих электроэнергию и тепло благодаря переработке природного газа (или метана / биогаза). На самом деле уже сейчас есть все предпосылки для широкого распространения этой технологии в индустрии ЦОД. К слову, совсем недавно команда инженеров из Microsoft Global Services Foundation объявила, что рэдмондовцы активно изучают возможность установки топливных элементов внутри монтажных стоек дата-центра (то есть концепция софтверного гиганта предполагает, что серверы и вырабатывающие для них электроэнергию топливные элементы будут находиться внутри одной и той же стойки). Идея отличная, но реализация ее на практике вызывает множество вопросов. К примеру, очень хочется узнать, каким образом рэдмондовцам удастся получить разрешение соответствующего департамента противопожарной службы на размещение трубопроводов для закачки метана внутри каждой монтажной стойки.

Даже владельцы более традиционных дата-центров, которые покупают электричество из местной электросети, начинают задумываться о пользе экологически устойчивых возобновляемых источников энергии. Для поддержания имиджа “зеленой” компании уже недостаточно иметь рекордно низкий коэффициент PUE а’ля Google и Facebook. Теперь вместо того, чтобы строить ЦОД в регионе с дешевой электроэнергией и, возможно, благоприятным климатом, позволяющим максимально эффективно использовать все возможности для организации фрикулинга (охлаждение серверного оборудования с помощью наружного воздуха), также важно знать, каким образом генерируется поступающее в дата-центр электричество. Если вы покупаете электричество с “грязных” угольных ТЭС, то можете разгневать Гринпис, как в свое время было в случае с Facebook и другими крупными интернет-компаниями. Вполне вероятно, что в 2014 году мы станем свидетелями интенсификации строительства новых СЭС и ВЭС рядом с дата-центрами. Ведь дата-центры продолжат оставаться объектом пристального внимания Гринпис и других подобных групп, активисты которых по какой-то ведомой лишь им причине считают, что серверные фермы по своей природе являются злом.

В области сетевой инфраструктуры также следует ожидать значительных перемен. Использование меди для передачи данных исчерпало себя практически полностью. Дальнейший рост производительности вычислительных мощностей и емкости систем хранения данных приведет к возникновению необходимость в расширении пропускной способности сети при передаче данных на большие расстояния. Сетевые магистрали в скором времени будут состоять практически полностью из оптоволокна, тогда как медь будет использоваться только на небольших участках для подключения серверов и EoR-коммутаторов (End-of-Row Switch) к сети. Значительная разница в размерах оптоволоконных кабелей и медных аналогов также является важным фактором: при переходе на оптоволокно кабельные лотки в дата-центрах можно будет освободить от более тяжелых и крупных медных кабелей. Еще одним перспективным направлением является технология «SiPh» (новое название компании Intel для кремниевой фотоники или Silicon Photonics), которая в скором времени может прочно обосноваться внутри дата-центров. По мнению экспертов, изначально кремниевая фотоника будет применяться в суперкомпьютерных системах и HPC-кластерах, а затем она может стать частью стандартной сетевой инфраструктуры ЦОД следующего поколения.

ОСТАВИТЬ ОТЗЫВ