Это важный момент для операторов центров обработки данных, которые вынуждены постоянно увеличивать расходы на охлаждение мощного серверного оборудования. Некоторые центры не могут устанавливать новое оборудование из-за нехватки энергетических ресурсов и мощности имеющихся систем охлаждения.
По некоторым оценкам, расходы на энергию, затрачиваемую на охлаждение ИТ-систем, составляют почти половину всех затрат на энергию, используемую для работы центров обработки данных. По данным Министерства энергетики США, с 2000-го по 2006 год количество энергии, потребляемой центрами обработки данных в Соединенных Штатах, удвоилось и может увеличиться еще в два раза к 2011 году, если не предпринять мер по увеличению эффективности использования энергии.
Серверное оборудование в центрах обработки данных должно работать в определенном температурном диапазоне. Аппаратное обеспечение выходит из строя, если температура оказывается слишком высокой, а при чрезмерном охлаждении энергия тратится впустую. Однако большинство центров обработки данных из-за опасения перегрева охлаждают свое оборудование больше, чем необходимо. Инженеры лаборатории совместно со специалистами компаний Intel, Hewlett-Packard, IBM и Emerson Network Power провели ряд экспериментов по определению оптимального уровня охлаждения компьютерного оборудования.
Они получали информацию о температуре с датчиков, встроенных в большинство современных серверов, и передавали эти данные непосредственно в систему управления инженерным оборудованием здания, в котором расположен центр обработки данных, тем самым позволяя системе воздушного кондиционирования поддерживать в помещении температурный режим, требуемый для охлаждения серверов.
В самой идее нет ничего сложного, но ранее подобные шаги не предпринимались. Исторически сложилось так, что системы управления помещением и ИТ-оборудованием управляются независимо. Модули Computer Room Air Handler (или CRAH), которые, по существу, представляют собой большие воздушные кондиционеры, зачастую управляются на основе данных, получаемых с температурных датчиков, расположенных на или около воздухоприемников CRAH.
Таким образом организовано 76% центров обработки данных, согласно данным опроса конечных пользователей, на которые ссылается отчет по результатам проведенного исследования. В 11% центров обработки данных датчики размещены на пути потоков холодного воздуха между серверными стойками, что лучше, но далеко от идеала.
Связать ИТ-оборудование напрямую с системами охлаждения, согласно выводам отчета, «наиболее плодотворный подход к решению задачи увеличения эффективности центров обработки данных в ближайшие несколько лет». По мнению Билла Чуди, менеджера программы в Лаборатории имени Лоуренса, этот проект оказался успешным. «Наша основная цель состояла в том, чтобы показать, что мы можем это сделать, что можно использовать датчики на ИТ-оборудовании для управления инженерными системами здания, и мы добились поставленной цели», — сказал он.
Количество сэкономленной энергии будет варьироваться, в зависимости от того, насколько изначально был эффективен центр обработки данных. По прогнозам Чуди, большинство центров обработки данных смогут добиться отдачи от инвестиций в течение года.
Сейчас, согласно результатам опроса конечных пользователей, большинство центров обработки данных охлаждаются чрезмерно. Это исследование показало, что у 90% респондентов температура в центрах обработки данных, как минимум на 5 °C ниже верхнего предела, рекомендованного сообществом American Society of Heating, Refrigerating and Air-Conditioning Engineers, которое публикует принципы организации функционирования центров обработки данных. Снижение температуры даже на несколько градусов может дорого стоить центрам обработки данных.
«Многие исходят из того, что лучший центр обработки данных — это прохладный центр, но мы пришли к выводу, что вполне безопасно сделать его чуть теплее», — заметила Эллисон Клейн, менеджер Intel Server Platform Group. Несмотря на кажущуюся простоту задачи, при связывании систем управления ИТ-инфраструктурой и инженерным оборудованием зданий возникает ряд технических проблем. Системы управления ИТ используют иные команды, чем системы управления зданием, поэтому инженерам пришлось разрабатывать программное обеспечение для преобразовании ИТ-информации в протокол, который был бы понятен модулям CRAH.
Это программное обеспечение было специально написано для проекта, но, по словам Клейн, коммерческие производители тоже разрабатывают продукты, выполняющие подобные функции. В этом проекте для модулей CRAH были также использованы вентиляторы с переменной скоростью, которые позволяют более точно регулировать охлаждение. Однако, по мнению Клейн, центры обработки данных могли бы оказаться в выигрыше даже без таких вентиляторов, просто получая более точную информацию о температуре серверов.
Проект сейчас завершается, и инженеры сообщат о своих выводах в сентябре на семинаре в рамках предстоящего форума Intel Developer Forum, а также на конференции Data Center Energy Efficiency Summit, которая состоится в октябре. Компания NetApp ведет аналогичный проект и тоже намерена представить свои результаты во время конференции.
Одним из достоинств этой методики являются относительно невысокие первоначальные вложения. «Мы используем стандартные для отрасли технологии, поэтому нет никакой специфики, которая помешала бы пользователям внедрять методику», — подчеркнула Клейн. Данные о температуре можно передавать напрямую системе управления зданием либо посылать через консоли управления, предлагаемые IBM, HP и другими производителями компьютерных систем.
На передней панели большинства новых серверов смонтированы датчики температуры, использованные в этом эксперименте, и американское Агентство по охране окружающей среды (Environment Protection Agency, EPA) планирует добавить пункт о наличии таких датчиков к рекомендациям для серверов уровня Energy Star.
В будущем, скорее всего, будут использоваться и другие виды данных. «Это лишь самый первый шаг, — подчеркнул Чуди. — Ту же самую идею можно использовать для интеграции большей части центра обработки данных, поэтому вместо того, чтобы рассматривать данный вопрос в терминах оборудования ИТ и инфраструктурного оборудования, лучше рассматривать его как единую сущность, которая бесконфликтно управляется».