Роб Салмон полагает, что вскоре ключевыми станут проблемы создания распределенной универсальной инфраструктуры хранения, унифицированной масштабируемой архитектуры и Большие Данные |
Экономический кризис не помешал росту оборотов компании NetApp, которая за его время, по собственным данным, довела свою долю рынка до 15,5% и вышла на второе место среди производителей систем хранения, обойдя при этом IBM (12,3%), HP (10,0%) и Dell (7,4%) и отставая только от EMC (31,2%). Переход на второе место определил содержание нынешней рекламной кампании — в ее рамках NetApp спонсировала покорение вершины K2, которая хоть и ниже Эвереста на 200 м, но подъем на нее считается намного более сложным. На конец 2010 года на Эверест взошли 2,7 тыс. человек, а на К2 — всего 302.
Открывая 4 октября московский форум NetApp Innovation, Роб Салмон, исполнительный вице-президент компании, отвечающий за работу с клиентами, разделил девятнадцать лет истории NetApp на четыре этапа. На первом основное внимание уделялось созданию файловых серверов. С 2000 года в фокусе оказался производительный компьютинг, затем наступило время работы над оптимизацией выполнения приложений. На нынешнем, четвертом этапе в условиях роста объемов хранимых данных и недостатка финансирования необходимо оптимизировать использование оборудования. Впереди — пятый этап, на котором ключевыми станут проблемы создания распределенной универсальной инфраструктуры хранения, унифицированной масштабируемой архитектуры с использованием ресурсов локальных и глобальных облаков, и, конечно же, Большие Данные.
С основным докладом выступил Мэтт Уоттс, который занимает должность стратегического советника NetApp в регионе EMEA, а, по сути, является корпоративным техническим евангелистом. По его словам, секрет успеха NetApp заключается в слове «оптимизация». Потребность в оптимизации хранения возникает в силу того, что бюджеты компаний на закупку новых систем почти не растут, а количество хранимых данных ежегодно удваивается. Очевидно, что в первую очередь справиться с этим ростом помогает объективный фактор, увеличиваются емкости дисков, а их стоимость падает. Еще семь-восемь лет назад накопитель емкостью 1,5 Тбайт казался гигантом, сегодня для хранения этого объема теоретически достаточно одного диска. На практике из-за необходимости обеспечить надежность хранения данных и высокую скорость доступа к ним приходится создавать множественные копии одних и тех же данных. Увеличению числа копий способствуют такие технологии, как, например, получающие все более широкое распространение виртуальные десктопы; если их в организации несколько тысяч и каждый хранит порцию одних и тех же данных, то это добавляет немалую нагрузку на системы хранения.
Есть два резерва оптимизации, один на инфраструктурном уровне, другой на уровне данных. Что касается первого, то здесь есть множество различных технологий, среди них динамическое резервирование (Thin Provisioning), эффективные снэпшоты (Space Efficient Snapshot Technology), виртуальные клоны (Virtual Clones), «тонкое» реплицирование (Thin Replication), массивы с двойной точностью RAID-DP, использование дисков SATA с виртуальным делением на уровни.
На уровне данных применяются технологии компрессии и дедупликации. Эти технологии работают в средах SAN и NAS, они применимы к разным уровням хранения и к системам хранения разных производителей. Вокруг дедупликации сейчас развернулась серьезная дискуссия; по данным Уоттса, в 2010 году средствами дедупликации удалось сэкономить примерно 1 экзабайт дискового пространства, это эквивалентно 5,5 млрд евро.
Мэтт Уоттс «За ближайшие несколько лет спрос на системы хранения для Больших Данных достигнет 15 млрд долл.» |
Индустрия хранения находится накануне больших перемен
В ходе московского форума NetApp Innovation Мэтт Уоттс, стратегический советник NetApp в регионе EMEA, прокомментировал для Computerworld Россия ряд наиболее перспективных направлений деятельности компании.
Что вы думаете о Больших Данных?
Я опасаюсь, что им не удастся избежать того же бремени неоправданного предвосхищения быстрых изменений, как это было с облаками. Мы смотрим на Большие Данные с трех точек зрения. Первая — аналитическая. Перед нами стоит задача создания систем, поддерживающих работу с ними в режиме времени, близком к реальному, это будут специализированные аналитические машины. Обратите внимание на нашу недавнюю покупку подразделения Engenio у LSI Corporation. С ее помощью сейчас мы выпускаем продукты семейства E-Series Storage Technology, отличающиеся чрезвычайно высокой производительностью при очень низкой удельной стоимости хранения. В них них нет нашей заслуженной операционной системы ONTAP, предназначенной для управления данными, ее главное достоинство в обеспечении защиты данных, эффективности использования пространства хранения. В то же время аналитика предъявляет совершенно иные требования, для нее прежде всего важны объемы данных и скорость их обработки. При работе над E-Series мы взаимодействовали с Cloudera и другими лидерами рынка обработки Больших Данных.
Другой аспект индустрии Больших Данных — высочайшая скорость их накопления, здесь важно суметь адаптироваться к новым источникам данных из реального окружающего мира, E-Series решает и эту задачу. И третье — контент, традиционные файловые системы не приспособлены к хранению разнообразных объектов, теперь требуются специализированные системы хранения. Вот поэтому мы купили компанию-специалиста в этой области Bycast с ее продуктом StorageGRID Object based storage. Вскоре мы объединим Bycast с E-Series, а со временем сделаем следующий шаг, тогда мы совместим все это в ONTAP и таким образом выйдем на требуемый уровень создания унифицированных систем хранения.
Следует это понять так, что Большие Данные окажутся в фокусе внимания компании?
За ближайшие несколько лет спрос на системы хранения для Больших Данных достигнет 15 млрд долл. E-Series отлично вписывается в образующийся сегмент. Но мы считаем, что и потенциал традиционных рынков еще не исчерпан. Также у нас большие надежды на Россию, наша доля рынка здесь существенно меньше общемировой. На нем мы пока не вторые и можем увеличить оборот в несколько раз.
В работе форума участвуют VMware и Citrix c докладами о виртуализации десктопов. Эта тема также важна для NetApp?
В известной мере участие именно этих двух компаний объясняется особенностями местного рынка, но в целом к взаимодействию с ведущими виртуализационными компаниями нас обязывает продукт FlexPod, служащий цели интеграции разрозненных компонентов для хранения, вычислительных и сетевых компонентов в единую архитектуру, масштабируемую в соответствии с требованиями сред заказчиков. FlexPod использует серверы Cisco Unified Computing System, коммутаторы Cisco Nexus и унифицированные системы хранения NetApp, работающие под управлением Data ONTAP. Есть FlexPod для VMware и есть Citrix XenDesktop на базе FlexPod.