Фотоэкскурсия по новому дата-центру LinkedIn на 8 МВт в штате Орегон
После поглощения LinkedIn корпорацией Microsoft за $ 26,2 млрд. инженеры соцсети для поиска и установления деловых контактов не остались без работы, продолжая расширять ее вычислительную инфраструктуру. В частности, они спроектировали, построили и благополучно ввели в эксплуатацию 8-мегаваттный ЦОД площадью в без малого 3,4 тыс. квадратных метров (36 000 квадратных футов) в американском штате Орегон. Дата-центр, также известный как LOR1, находится в городе Хиллсборо. Его проектировщики использовали принципы облачной архитектуры и делали ставку на максимизацию энергоэффективности.
Представители LinkedIn говорят, что этот дата-центр является четвертой серверной фермой соцсети в США. Возводился он с целью ускорения соединений для клиентов с западного побережья Штатов и Азии. Остальные ЦОД LinkedIn (собственные и арендованные) расположились в американских штатах Калифорния, Техас и Вирджиния, а также в Сингапуре. Внутри нового дата-центра может разместиться около 100 тыс. микросерверов.
Как отметил директор LinkedIn по инфраструктуре серверных ферм Майк Ямагучи, новый дата-центр необходим для удовлетворения потребностей LinkedIn в вычислительной инфраструктуре на фоне активного расширения пользовательской базы в Азиатско-Тихоокеанском регионе. Несмотря на то, что ЦОД находится на территории США, его близость к станции подключения к магистральному кабелю Trans Pacific Cable Landing Station позволяет минимизировать задержи при двунаправленной передаче данных из США в сети разнообразных азиатских сетевых провайдеров.
Дата-центр занимает в общей сложности два здания: одно новое и одно старое. Здания расположились вдоль улицы Evergreen Parkway и находятся в пределах зоны свободного экономического развития, что дает их владельцам налоговые льготы при приобретении нового оборудования и возведении построек. К слову, Орегон привлекает многих владельцев ЦОД главным образом именно щедрыми налоговыми стимулами. Благодаря этим стимулам администрации американского штата удалось заманить таких инвесторов Google, Facebook, Amazon и Apple — все эти компании владеют крупными дата-центрами в центральной или восточной частях Орегона.
Удачное местоположение нового дата-центра LinkedIn также предоставляет его операторам возможность использования фрикулинга в течение 220 дней в году. Как следствие прохладный воздух Орегона позволяет соцсети экономить дополнительную электроэнергию и минимизировать расходы на техобслуживание системы охлаждения за счет уменьшения нагрузки на дорогостоящее оборудование.
Заслуживает внимания и тот факт, что электроснабжение ЦОД может осуществляться с помощью возобновляемых источников энергии благодаря доступу к инфраструктуре компании Portland General Electric Infrastructure. Неудивительно, что конечной целью создателей ЦОД выступает 100-процентный перевод его инфраструктуры на экологически чистую электроэнергию с находящихся неподалеку гидроэлектростанций.
Использование в новом дата-центре в городе Хиллсборо внутрирядных теплообменников, монтируемых на уровне дверцы серверной стойки, позволило инженерам LinkedIn избавить себя от необходимости проектировать и развертывать стандартные «горячие коридоры» / «холодные коридоры» – то есть использовать традиционную архитектуру для управления потоками воздуха и оптимизации инфраструктуры охлаждения оборудования внутри серверных стоек. Внутрирядные теплообменники ChilledDoor, разработанные и изготовленные компанией MotivAir, автоматически регулируют мощность с учетом переменной тепловой нагрузки.
Внутри ЦОД используется передовая система распределения электроэнергии с рабочим напряжением в 400 вольт. Внедрение этой и других технологий для повышения энергоэффективности позволило операторам ЦОД добиться снижения коэффициента PUE (Power Usage Effectiveness) до 1,06 единицы.
Конструкция ЦОД позволяет достигать плотности размещения оборудования на уровне 96 серверов на стойку или 18 кВт на стойку. Причем ресурсы механической системы охлаждения в теории позволяет достигать плотности мощности вплоть до 32 кВт на стойку.
Как отметил Ямагучи, перед тем как остановить свой выбор на штате Орегон инженеры компании изучили множество важных факторов. И их труды оказались не напрасны. Новый дата-центр стал самой технологически продвинутой и эффективной серверной фермой в распоряжении LinkedIn.
Оптоволокно внутри дата-центра было развернуто с использованием передовых технологий и масштабируемой архитектуры, которую инженеры LinkedIn называют Project Altair. Как отметил главный сетевой архитектор LinkedIn Шон Занди, этот подход позволил довести скорость передачи данных по всем внутренним соединениям до 100 Гбит / с.
Инженеры LinkedIn также использовали коммутаторную платформу собственной разработки под названием Project Falco, чтобы обеспечить как можно большую масштабируемость. Кроме того, специалисты соцсети решили перейти на протокол IPv6 для дополнительной гибкости, а также начали применять файерволы с распределенной архитектурой, чтобы устранить необходимость развертывания специализированных программно-аппаратных решений.
Операторы дата-центра LinkedIn реализовали вычислительную архитектуру на базе облачной бизнес-модели PaaS (Platform-as-a-Service или платформа-как-услуга), обеспечивая единый пул ресурсов для приложений. Как следствие, любой сервер может быть использован для обслуживания любой рабочей нагрузки. Это позволяет легко разворачивать дополнительные вычислительные мощности и быстро выделять ресурсы для нужд определённых приложений.
Внутри современных дата-центров обычно работают не так уж и много людей. Ранее соцсеть LinkedIn уведомила муниципалитет города Хиллсборо о том, что собирается нанять от трех до семи человек для удовлетворения потребностей нового дата-центра в персонале.
Отметим, что софтверный гигант Microsoft планирует завершить сделку по приобретению LinkedIn уже в этом квартале. Представители LinkedIn отказались от комментариев по поводу того, как приобретение соцсети огромной корпорацией будет влиять на технологическую инфраструктуру их соцсети.
Всего комментариев: 0