Проблематика ЦОД становится главной в области ИТ. Как можно было ожидать, совершенствование ИТ, самой быстро развивающейся отрасли в истории, обогнало возможности поддерживающей инфраструктуры. Проблемы питания и охлаждения все усугубляются и превращаются в препятствие на пути дальнейшего совершенствования ИТ. Согласно широко цитируемой оценке Gartner, если не принять эффективных мер, почти половина — 48% — всего бюджета на ИТ будет тратиться на энергообеспечение. Весьма характерны слова Джима Гаргана, вице-президента IBM по системам класса X, о том, что энергоснабжение и охлаждение центров данных «станет центральной темой ИТ на ближайшее десятилетие». Свою обеспокоенность выражают компании, работающие в самых разных сегментах рынка — выпускающие процессоры, серверы, системы хранения, сетевое оборудование и, конечно, ИБП. Своим видением стоящих перед ЦОД проблем и способов их решения компания APC-MGE поделилась на состоявшемся в г. Ньюпорт, США Editor's Day — международном мероприятии для журналистов.
Проблема повышения эффективности ЦОД с точки зрения потребления энергии выходит далеко за рамки собственно ИТ. Она затрагивает бизнес в целом. Стоимость простоя систем намного больше стоимости ИТ. При этом все больше средств приходится тратить на то, чтобы добиться повышения надежности на долю процента. Однако проблема серьезнее повышения затрат, она приобретает поистине планетарный масштаб. Как отметил Луис Андре Барразо, инженер Google, «утеря контроля за энергопотреблением компьютерного оборудования может иметь серьезные последствия не только для доступности компьютерных вычислений, но для общего здоровья планеты». Энергосистема мегаполисов уже не в состоянии справиться с такими мощными потребителями, как центры обработки данных. К примеру, компании Google пришлось отказаться от планов размещения ЦОД в Калифорнии и развернуть его в другом месте.
По оценке Барразо, при ежегодном росте энергопотребления серверов на 20% за четыре года расходы на электричество превысят покупную цену сервера начального уровня, что составляет 3000 долларов. О степени энергоэффективности — точнее неэффективности — решений ИТ говорит такая цифра: из каждого потребляемого ватта непосредственно на вычисления тратится менее 0,001%, остальная энергия выделяется в виде тепла. Поэтому необходимы фундаментальные усовершенствования на схемном и архитектурном уровне. Впрочем, это не означает, что надо сидеть и ждать, пока появятся такие решения. Зачастую достаточно уже имеющихся простых средств, чтобы значительно улучшить энергоэффективность. Оставить все как есть — значит сделать выбор в пользу неэффективности.
В известной степени эффективность энергопотребления противоречит доступности ИТ — во всяком случае, невозможно добиться сразу и того и другого, если применять традиционные подходы к проектированию инженерной инфраструктуры. По оценкам Министерства энергетики США, к 2015 г. только за счет лучшего проектирования центров данных можно сэкономить до 675 тыс. вагонов угля, чего достаточно для снабжения электричеством 1,8 млн жилых домов. Возможно, в России проблема энергоэффективности стоит не столь остро, но экстенсивный подход к построению ЦОД вряд ли себя оправдывает ввиду неизбежного роста тарифов. Согласно прогнозам МЭРТ, к 2010 г. суммарный дефицит энергомощностей станет одним из основных препятствий для развития бизнеса в России. Сегодня стоимость эксплуатации одной серверной стойки в центре обработки данных составляет 80-150 тыс. долларов, при этом на долю электроэнергии приходится уже около 20% затрат.
К сожалению, менее 1% всех построенных ЦОД можно считать эффективными, во всяком случае, именно такую цифру назвал Пол Гамильтон, вице-президент по программе повышения энергоэффективности компании Schneider Electric, в состав которой теперь входит APC. К 2008 г. у 50% существующих ЦОД мощностей будет недостаточно, чтобы поддерживать оборудование высокой плотности, а к 2009 г. в 70% всех центров обработки данных затраты на энергию станут вторым по значимости операционным расходом (после расходов на оплату выполняемых работ). Впрочем, не все так безнадежно — к 2011 г. потребность в питании со стороны оборудования высокой плотности должно перестать расти благодаря согласованной реализации процессоров, серверов, шкафов, инженерной инфраструктуры и систем управления, а доминирующей стратегией охлаждения оборудования высокой плотности станет применение закрытых стоек с внутренним охлаждением и доводчиков для целевого охлаждения.
Что же предлагает APC? Нил Расмуссен, первый вице-президент и главный инженер APC, выделяет пять элементов эффективной архитектуры питания и охлаждения. Во-первых, применение ИБП с высоким КПД с гибридными инверторами MOSFET/IGBT и другими элементами и усовершенствованиями. Впрочем, дальнейшее повышение эффективности вряд ли осуществимо, так как эти системы практически достигли пределов технических возможностей. Во-вторых, питание от тока с напряжением 400/230 В. Эта мера имеет смысл лишь для США с его более низким напряжением. В этой связи стоит отметить, что в APC считают нецелесообразным переход на питание от постоянного тока. В-третьих, размещение систем кондиционирования внутри ряда, а не на уровне комнаты. Тем самым удастся повысить эффективность охлаждения на 33%. В-четвертых, внедрение масштабируемых систем питания и охлаждения, ведь чем выше диспропорция между реальной и номинальной нагрузкой, тем меньшей эффективностью характеризуется вся система. В-пятых, применение программного обеспечения для планирования и управления мощностью питания и охлаждения. Такое ПО должно производить распределение мощностей в реальном времени. Согласно проведенным расчетам, если в центре с потреблением 1 МВт оборудование InfraStruXure применять в соответствии с упомянутыми принципами, то можно добиться экономии свыше 20-25% в зависимости от нагрузки.