Увеличение плотности оборудования в ЦОД — одна из современных тенденций. Сейчас стойки, потребляющие более 30 кВт, уже не редкость. Но повышение плотности заставляет использовать более сложные и дорогие системы охлаждения для отвода тепла, которые сами являются мощными потребителями электроэнергии.
Производители ИТ-оборудования постоянно работают над увеличением плотности его размещения. Источник: HP |
Теоретически уплотнение должно вести к снижению энергоэффективности ЦОД. На самом деле, как утверждают эксперты, модульные серверы высокой плотности примерно на 20% эффективнее по энергопотреблению, чем обычные стоечные серверы с теми же процессорами. Дело не только в том, что более десятка таких устройств используют один дублируемый блок питания и общие вентиляторы. Тепло, выделяемое в компактном пространстве, отвести намного проще, чем из помещения ЦОД большого объема, тогда потребовалось бы увеличить мощность вентиляторов и переконфигурировать воздушные потоки. Конечно, оборудование высокой плотности окажется более эффективным лишь при правильно организованном охлаждении.
Пределы роста
Вендоры утверждают, что заказчикам придется тратить больше средств на оплату электроэнергии, если они не решатся увеличить плотность оборудования в ЦОД. Однако вендоры признают, что мощные климатические решения, позволяющие отводить от стойки до 40 кВт тепловой энергии, непрактичны. Энергопотребление не будет расти бесконечно и стабилизируется на уровне 20-25 кВт на стойку, хотя прогнозы аналитиков говорят о дальнейшем росте «тепловой нагрузки» разных видов оборудования ИТ.
Какова же оптимальная плотность оборудования в ЦОД? Оправдывает ли получаемая от уплотнения экономия площадей увеличение сложности эксплуатации и теплоотвода, применение дорогостоящих и сложных технических решений? Это зависит от условий – стоимости «стойко-места» и расходов на электричество, говорит Максим Захаренко, генеральный директор компании «Облакотека». В России и то и другое стоит недорого. Поэтому вложения в инновационные средства размещения оборудования высокой плотности нецелесообразны. Важно понимать, что вычислительная мощность сегодняшних сверхкомпактных модульных систем завтра будет воспроизведена на паре обычных серверов. А снижение потребления электричества на 20% при высокой первоначальной стоимости оборудования в итоге не даст экономии.
По мнению Владимира Щетинина, директор Центра разработки инфраструктурных решений компании «Ай-Теко», оптимальная плотность оборудования – это максимальная полезная нагрузка (например, вычислительная) в пересчете на минимальную площадь, при условии что не требуется применять специальные системы охлаждения (иначе экономия на площади может быть нивелирована стоимостью климатического оборудования). Если «набить» стойку высоконагруженными серверами, потребуется отвести около 35 кВт тепла. Это можно сделать, поместив серверы в специальный шкаф с внутренним охлаждением, но можно просто распределить эти серверы по другим стойкам с более низким тепловыделением и охлаждаемым стандартными методами.
«Высокая плотность оборудования в ЦОД не так сильно востребована ввиду необходимости инженерных ухищрений, направленных на теплоотвод. Нагрузка на стойку в 7-10 кВА представляется оптимальной, и лишь в редких случаях оправданно применение более нагруженных стоек. Для них можно выделить отдельную зону», – подчеркивает генеральный директор группы компаний «ИТ-Град» Дмитрий Гачко.
Вместе с тем современное оборудование электропитания и охлаждения способно поддерживать высокую плотность виртуализованной нагрузки. Поскольку подобные решения для высокой энергетической плотности присутствуют на рынке довольно давно, то вопросы проектирования, внедрения и эксплуатация этого оборудования уже отработаны, рассказывает Алексей Соловьев, системный архитектор подразделения IT Business компании Schneider Electric. Консолидация оборудования в ЦОД экономит один из основных и наиболее сложно расширяемых ресурсов – полезную площадь машинного зала, а создание локальных зон для виртуализованных серверов позволяет реализовать отдельную инженерную подсистему со своим уровнем надежности, который может быть выше общей (для всего ЦОД). При этом энергоэффективность подобных локальных систем оказывается выше традиционных решений, прежде всего за счет оптимизации системы охлаждения и применения внутрирядных систем кондиционирования и изоляции горячего коридора. Данная технология охлаждения способна штатно работать с нагрузками 40–50 кВт на стойку и поддерживать работу ИТ-оборудования самой высокой плотности.
Однако практика показывает, что в большинстве случаев виртуализованная консолидированная нагрузка потребляет 15–25 кВт на стойку, и возможности современной инженерной инфраструктуры ЦОД полностью соответствуют требованиям ИТ. Наиболее распространенным критерием оценки плотности оборудования является количество киловатт на стойку, и сейчас оптимальным считается показатель 10-15 кВт на стойку, поясняет Владимир Прохоров, начальник управления пресейлинга компании «Техносерв». Данного энергопотребления хватает для размещения двух-трех модульных шасси, при этом остается достаточный запас на энергоемкое стоечное сетевое оборудование. Такое решение подходит как для стационарных, так и для мобильных (контейнерных) систем ЦОД.
Альтернативные платформы
Плотность оборудования позволяют увеличить альтернативные процессорные платформы, в частности микросерверы на процессорах ARM или Intel Atom, не столь «прожорливые» в отношении потребления электроэнергии, но вполне эффективно решающие отдельные классы задач. В случае их применения тепловыделение на стойку невысоко, и проблемы отвода тепла нет. Однако отношение к ним неоднозначно.
«Как известно, компания НР продвигает проект Moonshot, что говорит о перспективности использования процессоров ARM/Atom в серверах, – отметил Щетинин. – Думаю, что преимущества таких серверов первыми должны оценить сервис-провайдеры, крупные корпоративные клиенты со значительной нагрузкой на взаимодействующие с пользователем системы и компании, занимающиеся обработкой Больших Данных. Они смогут в разы сократить необходимые площади в ЦОД и расходы на электропитание и охлаждение серверного парка. Интерес представляет также возможность конфигурирования таких серверов под специфическую нагрузку заказчика из стандартных модулей, решающих задачи вычислений или хранения. Не думаю, впрочем, что в ближайшие пару лет заказчики начнут переводить на ARM и Atom-серверы свои бизнес-критичные нагрузки, например базы данных. Поскольку эта технология нова, сферы применения таких серверов только формируются, хотя могут расширяться относительно быстро. Мы собираемся тестировать первый сервер НР с процессорами Atom уже в ближайшее время».
А вот по мнению Прохорова, серверы с архитектурой ARM являются нишевым продуктом и не занимают значительной доли рынка в связи с неочевидностью пользы от их применения по сравнению с традиционными системами х86. Захаренко полагает, что микросерверы – тупиковая ветвь развития серверных платформ. «Думаю, что в ближайшее время позиции микросерверов с процессорами ARM не изменятся, архитектура RISC решает достаточно узкий и специфичный класс задач», – заявил Андрей Сысоев, руководитель группы систем виртуализации и управления данными компании «Комплит» .
Так или иначе, производители ИТ-оборудования, от разработчиков микропроцессоров до проектировщиков комплексных платформ для облачных вычислений, пытаются добиться повышения энергоэффективности своих продуктов, ежегодно выпуская новые решения. Производители инженерного оборудования в свою очередь корректируют свои стратегии в соответствии с растущим энергопотреблением ЦОД и совершенствованием серверных технологий.