Не менее подробно и тщательно рассматривается выбор серверных систем, дисковых массивов, технологий резервного копирования, кластеризации, виртуализации и т.д.

Безусловно, все перечисленные компоненты и технологии являются важными составляющими современного ЦОД, без них его надежная и эффективная работа невозможна. Вместе с тем, одна из важнейших частей современного ЦОД нередко остается без внимания. Речь идет о его транспортной платформе – своего рода «кровеносной системе» сложного организма ЦОД, обеспечивающей циркуляцию информационных потоков, жизненно необходимых мозгу ЦОД (корпоративным информационным системам), по его венам, артериям и капиллярам (внешним и внутренним каналам передачи данных).

Если современный ЦОД рассматривать с точки зрения техничес-кой архитектуры, то совокупность программно-аппаратных средств (коммутаторы, маршрутизаторы, серверы, дисковые массивы, межсетевые экраны, библиотеки, терминаторы SSL/VPN, балансировщики нагрузки и т.д.) можно условно разделить на функциональные подсис-темы, каждая из которых обеспечивает выполнение определенных операций:

  • подсистема серверов предоставляет вычислительные ресурсы для работы корпоративных приложений;
  • подсистема сетевого взаимодействия реализует надежный транспорт информационных потоков между компонентами ЦОД и сопряжение с магистральной сетью передачи данных;
  • подсистема хранения обеспечивает надежное хранение и доступ к данным;
  • подсистема информационной безопасности защищает информацию от несанкционированного доступа и модификации, отвечает за организацию защищенного удаленного доступа к ресурсам и т.д.;
  • подсистема управления и мониторинга осуществляет мониторинг, управление, а также диагностику и локализацию неисправностей всего программно-аппаратного комплекса ЦОД.

Общая схема технической архитектуры ЦОД приведена на Рисунке 1.

При этом компоненты различных подсистем, обеспечивающие передачу разнородного трафика как внутри ЦОД, так и за его пределы (коммутаторы Ethernet/InfiniBand/Fibre Channel, шлюзы FCIP/iFCP/iSCSI/FCoE и т.д.) в совокупности составляют транспортную подсистему ЦОД. Место, которое транспортная платформа занимает в иерархичес-кой модели ЦОД, наглядно представлено на Рисунке 2.

Транспортная платформа, будучи вспомогательным элементом, тем не менее выполняет важные функции, обеспечивая доступ пользователей к серверам, на которых функционируют ИС, с одной стороны, и доступ серверов к хранимым корпоративным данным, с другой. Таким образом, производительность ИС предприятия зависит от надежного и эффективного функционирования транспортной платформы.

ТЕХНОЛОГИЯ ETHERNET

Доминирующее положение в ЦОД занимает технология Ethernet, которая эволюционирует в двух направлениях: с одной стороны, увеличивается скорость передачи данных, с другой — интенсивно развивается функциональность, нацеленная на удовлетворение требований новых протоколов, работающих поверх Ethernet. В рамках данной статьи мы ограничимся вопросами масштабирования скоростей, поскольку тему наращивания функционала необходимо рассматривать отдельно и обстоятельно.

Классические технологии Ethernet/Fast Ethernet/Gigabit Ethernet широко распространены в локальной сети ЦОД, однако их довольно активно вытесняет технология 10 Gigabit Ethernet. Причин несколько: значительное снижение цены на порт 10GbE (цена за 10-гигабитный порт сегодня в несколько раз ниже, чем шесть лет назад, когда 10 Gigabit Ethernet был ратифицирован как стандарт IEEE 802.3), возможность использовать уже имеющуюся оптическую проводку для организации 10-гигабитных каналов, а также все возрастающие с каждым годом требования приложений к пропускной способности. Эти факторы привели к стремительному развитию рынка 10GE, который, по оценкам исследовательской компании Dell’Oro Group, многократно увеличится — с 385 млн долларов в 2004 г. до 2,9 млрд в 2009 г.

Технология 10GE, используя протокол IEEE 802.3 Ethernet MAC, формат и размер кадра Ethernet, является очередным воплощением Ethernet. В настоящее время 10GE включает в себя несколько стандартов физической среды для различных расстояний:

  • 10GBaseSR и 10GBaseSW — многомодовое оптическое волокно (длина волны 850 нм), передача сигнала на расстояние до 300 м;
  • 10GBaseLR и 10GBaseLW — одномодовое оптическое волокно (длина волны 1310 нм), передача сигнала на расстояние до 10 км;
  • 10GBaseER и 10GBaseEW — одномодовое оптическое волокно (длина волны 1550 нм), передача сигнала на расстояние до 40 км;
  • 10GBaseLX4 — многомодовое оптическое волокно (длина волны 1310 нм), технология WDM, поддержка расстояний до 300 м. В случае одномодового оптичес-кого волокна дальность передачи достигает 10 км;
  • 10GBaseZR — одномодовое оптическое волокно (длина волны 1550 нм), передача сигнала на расстояние до 80 км;
  • 10GBaseCX4 — медный кабель CX4 и соединители InfiniBand, передача 10 Gigabit Ethernet на короткие расстояния (до 15 метров);
  • 10GBaseT (стандарт принят в июне 2006 г.) — кабель с витыми парами, передача сигнала на расстояние до 100 м.

Отличие между стандартами с обозначением SR/LR/ER и SW/LW/EW заключается в том, что первые предназначены для передачи сигнала по «темному волокну», а вторые — для подключения к оборудованию SONET/SDH.

Технология 10GE обладает рядом преимуществ. Прежде всего, это значительное увеличение пропускной способности по сравнению с технологиями Ethernet/Fast Ethernet/Gigabit Ethernet. Кроме того, при построении СКС применение 10GE дает возможность использовать существующие компоненты, значительно сократить количество сетевых соединений (особенно в случае протяженных оптических линий связи), а также оптимизировать затраты за счет агрегации нескольких гигабитных каналов в один 10-гигабитный. К тому же технология 10GE позволяет строить не только локальные, но и городские и даже глобальные сети, обес-печивая поддержку стандартных функций второго уровня модели OSI (802.1p, 802.1Q, Ether Channel, STP) и различных протоколов и сервисов (MPLS, QoS, сервисов безопасности и т.д.).

В центре обработки данных технология 10GE становится стандартом «де-факто» для создания высокоскоростных каналов как внутри ЦОД (DataCenter Tier Uplink), так и при построении каналов связи между ЦОД и ядром корпоративной сети предприятия. В настоящее время наиболее востребованы стандарты 10GBaseSR, 10GBaseT, 10GBaseCX4 и 10GBaseLX4.

Прогресс, как известно, не стоит на месте, и еще до окончательного принятия стандарта 10GE в 2002 г. специалисты комитета IEEE приступили к рассмотрению вариантов 40GE и 100GE. Результатом стало принятие на конференции IEEE, прошедшей в Сан-Франциско в июле 2007 г., решения о включении 40GE и 100GE в следующий стандарт Ethernet. Он получил название IEEE 802.3ba, а его появление ожидается в 2010 г. По оценкам экспертов, в ближайшие четыре года требования к пропускной способности в ЦОД увеличатся на порядок, и ратификация нового стандарта 40GE/100GE окажется как нельзя кстати.

Если говорить о перспективах использования 40GE и 100GE в ЦОД, то технология 40GE может применяться для подключения серверов к локальной сети ЦОД, а 100GE — для агрегации каналов, подключения ЦОД к магистрали, создания высокоскоростных каналов между основным и резервными ЦОД, а также для организации межкластерных соединений, требующих высокой пропускной способности.

Нельзя не отметить тот факт, что в процессе обсуждения технологий 40GE/100GE уже звучали предложения о начале разработки терабитового стандарта с целью удовлетворения все возрастающих потребностей в сверхвысокоскоростных каналах, в которых нуждаются крупнейшие ЦОД и ведущие сервис-провайдеры.

Помимо масштабирования скоростей, функциональное развитие технологии Ethernet выразилось в виде новой архитектуры Data Center Ethernet (DCE), основанной на совокупности открытых стандартов. Данная архитектура расширяет функциональность классической технологии Ethernet и адаптирует ее для поддержки специфичных требований современного ЦОД, таких как консолидация ввода/вывода и построение унифицированных фабрик.

ТЕХНОЛОГИЯ FIBRE CHANNEL

Практически все крупные и средние компании, которым ежедневно приходится обрабатывать значительные объемы информации, перешли от разрозненных, децентрализованных хранилищ данных к выделенным, высоконадежным, масштабируемым сетям хранения (Storage Area Network, SAN). Этот процесс был обусловлен целым комплексом причин. Важнейшие из них — неэффективное использование существующего дискового пространства, лавинообразный рост информации и проблемы масштабирования, невозможность обеспечить полноценную защиту корпоративных данных. К этому перечню следует добавить сложность организации процесса резервного копирования и восстановления, а также высокие затраты на администрирование.

Под сетью SAN обычно подразумевается сеть, построенная с использованием технологии (интерфейса) Fibre Channel. Хотя в отдельных случаях могут применяться и другие технологии (например, SCSI, SCI, IP Storage), своей популярностью сети SAN обязаны именно Fibre Channel, объединившей лучшие качества канальных технологий передачи данных из мира мейнфреймов и сетевых технологий пакетной передачи данных.

Cвойства и эксплуатационные характеристики cети на базе Fibre Channel обеспечивают консолидацию разрозненных хранилищ в единую сеть, высокоскоростной обмен между узлами сети и необходимую масштабируемость СХД, а также построение географически-распределенных сетей с гибким выбором типа топологии. Кроме того, сети Fibre Channel характеризуются высокой надежнос-тью и низкими сетевыми задержками, позволяют повысить эффективность утилизации имеющихся ресурсов, упростить администрирование и снизить затраты на управление и мониторинг.

Технология Fibre Channel поддерживает различные скорости — 1, 2, 4, 8 и 10 Гбит/с. Справедливости ради нужно отметить, что интерфейсы на 1 и 2 Гбит/с все еще удовлетворяют потребностям многих существующих приложений, но постепенно вытесняются более производительными интерфейсами на 4 и 8 Гбит/с. С использованием интерфейсов 10 Гбит/с обычно создаются высокопроизводительные соединения между коммутаторами. При выборе скорос-ти интерфейса нужно учитывать тот факт, что интерфейсы 1, 2, 4 и 8 Гбит/с совместимы друг с другом, тогда как интерфейс 10 Гбит/с не совместим с предыдущими вариантами. Причина в том, что технология FC на 1, 2, 4, 8 Гбит/с использует физический метод кодирования 8B/10B, тогда как FC 10 Гбит/с — 64B/66B. Поскольку номинальная и полезная скорость передачи различаются, производители оборудования для сетей SAN указывают номинальную скорость, выраженную в гигабитах в секунду (Гбит/с), в то же время пользователи оперируют полезной пропускной способностью, выраженной в мегабайтах в секунду (Мбайт/с). В Таблице 1 приведено соответствие аппаратной и полезной пропускной способности для Fibre Channel.

В качестве физической среды передачи сигналов технология Fibre Channel может использовать как медные, так и оптические (многомодовые с диаметрами сердцевины 50 или 62,5 мкм и одномодовые с диаметром сердцевины 9 мкм) кабельные соединения. Дальность соединения на основе медного кабеля составляет около 30 м, а в случае оптических кабелей (одномодовое волокно) она может достигать 10 км.

В ЦОД технология Fibre Channel применяется для объединения в сеть хранения серверов со специальными адаптерами (Host Bus Adapter, HBA), дисковых массивов, библио-тек и шлюзов NAS, а также для соединения между собой коммутаторов SAN.

К недостаткам сетей, построенных с использованием технологии Fibre Channel, можно отнести высокую стоимость специализированного оборудования, ограничения на протяженность сети, значительные эксплуатационные затраты на модернизацию и поддержку оборудования.

Диаметр сети SAN, как уже говорилось, может составлять около 10 км, однако довольно часто этого оказывается недостаточно для обес-печения взаимодействия удаленных площадок друг с другом, расстояние между которыми измеряется сотнями или тысячами километров. В этом случае на помощь приходят технологии инкапсуляции и туннелирования, позволяющие передавать блоки данных SCSI (технология iSCSI) или кадры Fibre Channel (технологии FCIP/iFCP) по существующей инфраструктуре IP. Необходимо подчеркнуть, что, несмотря на некоторое внешнее сходство, данные технологии ориен-тированы на различные области применения.

ТЕХНОЛОГИИ FCIP/IFCP

Технология (туннелирующий протокол) передачи Fibre Channel поверх IP (Fibre Channel over IP, FCIP) разработана IETF и определена в RFC 3821. На стороне отправителя кадры FC инкапсулируются в пакеты IP и передаются по сети TCP/IP удаленному получателю, который производит деинкапсуляцию кадров FC и их дальнейшую отправку в сеть Fibre Channel. Схема инкапсуляции кадра FC приведена на Рисунке 3.

Технология FCIP абсолютно прозрачна для устройств FC (заголовки и содержимое оригинального пакета FC при передаче через сеть IP остаются неизменными) и, таким образом, позволяет преодолеть налагаемые Fibre Channel ограничения по расстоянию между узлами и объединить географически распределенные сети хранения в единую фабрику, используя для этого существующие сети IP. Устройства FC не подозревают о существовании туннеля FCIP и работают с удаленными устройствами так, как если бы те располагались в пределах локальной сети SAN. В этом случае TCP/IP выполняет роль транспорта, осуществляющего передачу инкапсулированных пакетов между распределенными площадками и обеспечивающего контроль перегрузок в сети, восстановление потерянных пакетов и их упорядоченную доставку.

При помощи протокола FCIP решаются задачи объединения территориально распределенных SAN для обеспечения доступа к удаленным данным, выполняется синхронное или асинхронное тиражирование (в зависимости от требований приложений, скорости и качества канала), осуществляются операции удаленного резервного копирования данных и их восстановления.

Однако при этом необходимо учитывать такие особенности сетей на базе IP, как длительные задержки и значительные потери пакетов (по меркам сетей хранения). Эти факторы ведут к снижению производительности сетей хранения при их объединении через туннель FCIP, а для некоторых типов приложений, к которым относится, в частности, оперативная обработка транзакций (On-line Transaction Processing, OLTP), работа хостов с удаленными хранилищами может стать нецелесообразной в связи с катастрофичес-ким падением производительности приложения.

Протокол Internet Fibre Channel Protocol (iFCP) основан на TCP/IP и служит для объединения устройств FC через сеть IP с помощью специализированных шлюзов iFCP. В таком случае транспортный уровень FC замещается транспортом по сети IP. Основное различие между протоколами FCIP и iFCP заключается в том, что FCIP связывает между собой распределенные сети SAN, а iFCP обеспечивает связь между конкретными устройствами FC. Это позволяет варьировать уровень качества сервиса (реализуемый средствами сетевого оборудования) и уникальные маршруты для каждой пары взаимодействующих устройств FC. Кроме того, FCIP предусматривает объединение территориально распределенных фабрик FC, тогда как iFCP такой возможности не обес-печивает.

Решения на базе протокола iFCP целесообразно использовать, когда требуется более гибкая схема управления взаимодействием на уровне отдельных устройств. А решения на базе FCIP наилучшим образом подходят для объединения на уровне сетей.

ТЕХНОЛОГИЯ ISCSI

Транспортный протокол Internet Small Computer System Interface (iSCSI), разработанный группой IP Storage Working Group (IETF), был создан для передачи команд SCSI через сеть TCP/IP путем их инкапсуляции в пакеты IP. В отличие от описанных выше технологий FCIP и iFCP, протокол iSCSI никак не привязан к Fibre Channel и работает поверх TCP, используя обеспечиваемый им функционал гарантированной упорядоченной доставки пакетов и контроля перегрузок. Схема инкапсуляции команд и данных SCSI
в пакеты IP приведена на Рисунке 4.

Технология iSCSI позволяет реализовать следующие возможности:

  • подключение серверов к устройствам хранения, поддерживающим протокол iSCSI (либо
    к устройствам хранения на базе FC через специализированные шлюзы), со сравнительно небольшими финансовыми затратами, когда нет необходимости в высокоскоростном обмене данными;
  • преимущества технологий IP для передачи данных SCSI, среди которых можно отметить гибкость и простоту развертывания новой инфраструктуры IP и возможность задействовать уже существующую;
  • средства обеспечения информационной безопасности (межсетевые экраны, устройства IDS/IPS, криптографические шлюзы и различные средства шифрования);
  • механизмы QoS и инжиниринга трафика для iSCSI;
  • существующие средства мониторинга, а также поиска и устранения неисправностей в cетях IP;
  • свободно распространяемые драйверы iSCSI и уже имеющиеся сетевые адаптеры.

Помимо преимуществ, iSCSI обладает и недостатками. Эта технология довольно интенсивно загружает процессоры серверов при инкапсуляции/деинкапсуляции данных и обработке команд SCSI, отбирая вычислительные ресурсы у пользовательских приложений. В случае внедрения iSCSI в существующую инфраструктуру IP велика вероятность того, что нагрузка на сеть и без того достаточна высока, а значит, можно ожидать снижения производительности при обмене данными с хранилищами. Нельзя гарантировать и отсутствия проблем с безопасностью – ведь теперь корпоративные данные передаются по сетям IP или через недоверенные глобальные сети, в том числе и через сеть Internet, где не исключаются их утечка, модификация и другие риски.

Но, к счастью, существуют средства минимизации описанных выше рисков – это специализированные платы TCP Off-load Engine (TOE) или хост-адаптеры iSCSI для разгрузки центральных процессоров серверов от операций обработки TCP/IP, встроенные в сетевое оборудование средства обеспечения качества обслуживания, а также средства шифрования передаваемого трафика iSCSI.

ТЕХНОЛОГИЯ INFINIBAND

В начале нынешнего десятилетия стало очевидно, что темпы роста производительности процессоров значительно опережают темпы роста пропускной способности шин ввода/вывода. Шина PCI, которая на тот момент чаще всего применялась для подключения периферийных устройств к системным платам серверов, обладала рядом недостатков, наиболее существенным из которых была невысокая пропускная способность. Таким образом, шина ввода/вывода становилась «узким местом» серверных систем, которое обесценивало все преимущества высокопроизводительной процессорной подсистемы. Технология InfiniBand, объединившая технологии Next Generation I/O (NGIO) и Future I/O, была призвана решить эти проблемы.

InfiniBand представляет собой коммутируемое двунаправленное последовательное соединение «точка-точка» с базовой скоростью 2,5 Гбит/с в каждом направлении. Для повышения производительности могут использоваться версии InfiniBand с 4-х и 12-ти кратными скоростями, при необходимости базовая скорость передачи данных увеличивается в два раза (Double Data Rate, DDR – 5 Гбит/с) и в четыре раза (Quad Data Rate, QDR – 10 Гбит/с). В качестве физического метода кодирования применяется схема 8B/10B, поэтому реальная эффективная скорость передачи на 20% меньше. Данные для различных скоростей представлены в Таблице 2.

В современных коммутаторах InfiniBand наиболее востребованы 10 Гбит/с (4Х-SDR), 20 Гбит/с (4Х-DDR), 30 Гбит/с (12Х-SDR) и 60 Гбит/с (12Х-DDR).

Фундаментальным аспектом технологии InfiniBand является вынесение высокопроизводительной среды передачи данных за пределы физического устройства, например, сервера (концепция Bandwidth out of the Box). Иными словами, с введением InfiniBand появилась возможность обеспечить за пределами устройств такую же производительность, как и внутри них (предыдущий опыт построения каналов связи свидетельствовал о том, что чем дальше получатель данных находится от центрального процессора, тем меньшую скорость передачи данных удается обеспечить). Каковы же преимущества и основные сферы применения технологии InfiniBand?

К достоинствам технологии InfiniBand можно отнести:

  • высокоскоростные соединения между взаимодействующими устройствами;
  • очень малые задержки при передаче трафика;
  • поддержка протоколов прямого доступа к памяти (Remote Direct Memory Access, RDMA), благодаря которым данные доставляются непосредственно в память процесса, без обращения к системным вызовам ОС;
  • разгрузка центральных процессоров устройств от вычислений, связанных с операциями ввода/вывода;
  • гибкие аппаратные транспортные механизмы;
  • высокий уровень надежности, доступности и удобства эксплуатации;
  • встроенный механизм обеспечения качества обслуживания, использование технологии виртуальных каналов с приоритетами для каждого канала;
  • возможность построить на базе InfiniBand унифицированную, гибкую, масштабируемую инфраструктуру для передачи различных видов трафика
    с сохранением целостности данных и управлением потоками;
  • пониженное энергопотребление оборудования.

InfiniBand с успехом применяется для организации высокопроизводительных межкластерных соединений и построения масштабных системных сетей (System Area Network). Кроме того, при помощи технологии InfiniBand может быть создана унифицированная коммутационная инфраструктура для передачи трафика между процессорами, трафика хранения, пользовательского сетевого и других видов трафика (хотя в настоящий момент серьезную конкуренцию ей составляет технология FCoE).

В качестве физической среды передачи могут использоваться как медные (длиной до 17 м) соединения, так и оптические многомодовые (длиной до 300 м) и одномодовые (длиной до 10 км) соединения.

Не получившая в свое время широкого распространения технология InfiniBand остается нишевым, узкоспециализированным решением и применяется в современных ЦОД при организации высокоскоростного межкластерного взаимодействия для решения ряда финансовых, научно-исследовательских, медицинских задач, а также анализа данных, рендеринга изображений и т.д.

Заметим, что внедрение технологии InfiniBand (если мы не рассматриваем InfiniBand в качестве унифицированной коммутационной инфраструктуры) влечет за собой построение параллельной сети, в дополнение к существующим сетям на базе Ethernet и Fibre Channel, и предполагает специальное обучение сотрудников, требующее определенных затрат.

ТЕХНОЛОГИЯ FCOE

Разрабатываемый под эгидой комитета INCITS T11 стандарт передачи кадров Fibre Channel через сеть Ethernet (Fibre Channel over Ethernet, FCoE) позволяет расширить границы сети SAN при помощи существующей инфраструктуры Ethernet, что дает организациям возможность сохранить сделанные инвестиции и в ряде случаев избежать ненужных расходов.

Для передачи трафика Fibre Channel через сеть Ethernet кадр FC, включая заголовок, инкапсулируется на стороне отправителя в кадр Ethernet и передается получателю, который выполняет деинкапсуляцию оригинального кадра FC и его последующую обработку. Схема инкапсуляции кадра FC в кадр Ethernet приведена на Рисунке 5.

Серверы, работающие в современном ЦОД, обычно имеют несколько типов сетевых адаптеров (адаптеры для подключения к локальной сети/сети хранения). Это приводит к избыточному числу кабельных соединений, сложностям с их администрированием и дальнейшим масштабированием.

Совместное использование технологии высокоскоростного Ethernet (10GE, а в дальнейшем и 40GE/100GE) в качестве транспорта для трафика TCP/IP и трафика Fibre Channel позволит создать единую консолидированную виртуализованную среду ввода/вывода и обеспечить ряд преимуществ по сравнению с традиционным разделением сред передачи, среди которых можно отметить следующие:

  • сокращение количества сетевых адаптеров для подключения
    к сетям различного типа – вместо нескольких адаптеров применяется один адаптер Ethernet, обес-печивающий передачу трафика локальной сети (например, IP) и трафика SAN (Fibre Channel);
  • уменьшение числа необходимых кабельных соединений, коммутационных панелей, органайзеров, лотков и других элементов СКС;
  • сокращение количества портов на коммутирующем оборудовании;
  • снижение суммарного энергопотребления и тепловыделения оборудования;
  • повышение коэффициента использования высокоскоростных соединений и элементов транспортной инфраструктуры;
  • снижение совокупной стоимости владения транспортной инфраструктурой.

При анализе возможности внедрения технологии FCoE необходимо учитывать ее особенности. Поскольку Fibre Channel крайне негативно реагирует на потери пакетов, при передаче кадров FC сеть Ethernet не должна этого допускать (необходимо обеспечить так называемый «Ethernet без потерь» — Lossless Ethernet). Обычно протокол Fibre Channel осуществляет управление потоком с помощью механизма буферизации (Buffer-to-Buffer Credit, BB Credit). В сети Ethernet потери пакетов можно избежать за счет применения средств управления перегрузками, например, путем отправки перегруженным портом команды PAUSE передающему порту для приостановки передачи.

Стандартный размер кадра Ethernet составляет 1518 байт, в то время как размер инкапсулируемого в него кадра Fibre Channel — 2112 байт. Поэтому необходимо, чтобы отправляющая сторона выполнила их фрагментацию, а принимающая —дефрагментацию. Все это приводит к созданию дополнительной нагрузки на процессоры и снижает сквозную производительность канала. Для предотвращения данной ситуации коммутирующая инфраструктура должна поддерживать возможность передачи кадров Ethernet увеличенного размера (так называемых jumbo-кадров).

Из-за того, что технология FCoE не использует на третьем уровне протокол IP, для трафика FCoE не может быть обеспечена маршрутизация через сеть IP.

Таким образом, для передачи инкапсулированных кадров FC технология Ethernet нуждается в усовершенствовании, в частности, требуется поддержка управления потоками трафика различных типов (передача без потерь для FC и обычный тип передачи для TCP/IP) и выделение различной пропускной способности для каждого класса трафика.

На Рисунке 6 представлена обобщенная схема транспортной инфраструктуры ЦОД и приведены примеры использования каждой из рассмотренных выше транспортных технологий, а в Таблице 3 даны их характеристики.

ВЫБИРАЙ НА ВКУС

В заключение еще раз подчеркнем, что современный ЦОД представляет собой сложнейший организм с целой иерархией уровней различной функциональности. Техническая архитектура ЦОД и ее транспортная платформа являются одним из таких уровней, совокупность которых служит достижению основной цели создания ЦОД – надежному и эффективному функционированию корпоративных бизнес-приложений. Следует понимать, что потребности бизнес-приложений, размещенных в ЦОД, играют основополагающую роль в определении состава и реализации функциональных уровней — от требований к площадям, электропитанию, кондиционированию и СКС до необходимых интеллектуальных сервисов, помогающих сделать работу приложений более эффективной.

Как известно, не существует панацеи от всех болезней. Это правило справедливо и в отношении выбора технологий при планировании или модернизации транспортной платформы современного ЦОД. Невозможно заранее предсказать, какие технологии будут востребованы (или оптимальны) в каждом конкретном случае. Поэтому понадобится кропотливый анализ требований набора приложений, функционирующих в ЦОД, сопоставление их с возможностями и особенностями той или иной технологии и обязательный учет таких факторов, как начальная стоимость, эффективность, простота внедрения, дальнейшая эксплуатация и совокупная стоимость владения.

Сергей Лебедев — технический руководитель направления «Сетевая инфраструктура ЦОД» компании «Открытые Технологии». С ним можно связаться по адресу: slebedev@ot.ru.


Рисунок 1. Общий вид технической архитектуры ЦОД.

Рисунок 2. Место транспортной платформы в иерархической модели ЦОД.

Рисунок 3. Схема инкапсуляции кадра Fibre Channel в пакет IP.

Рисунок 4. Схема инкапсуляции команд и данных SCSI в пакет IP.

Рисунок 5. Схема инкапсуляции кадра Fibre Channel в кадр Ethernet.

Рисунок 6. Обобщенная схема транспортной инфраструктуры ЦОД.

Таблица 1. Соответствие аппаратной и полезной пропускной способности для технологии Fibre Channel.

Таблица 2. Соответствие аппаратной и полезной пропускной способности для технологии InfiniBand.

Таблица 3. Обобщенные характеристики различных транспортных технологий, применяемых в ЦОД.