Технология, достигшая зрелости, обычно незаметна для пользователя. Взять хотя бы автомобиль двадцатых, где все рычаги и другие органы управления были на виду, и современный, в котором, кроме руля и пары педалей, минимум приборов и кнопок. Аналогичная ситуация складывается сегодня и в ИТ — вторая половина второго десятилетия XXI века может стать точкой поворота, начиная с которой собственно компьютерные технологии будут уходить со сцены, а на первый план выйдут не унылые «бизнес-приложения», а качественно новые приложения, способные реально изменить образ жизни человечества.
1. Аддитивное производство (Additive Manufacturing). Аддитивное производство еще называют 3D-печатью, первые опыты с которой при создании изделий из металла известны еще с середины 80-х, а сегодня этот метод применяется для производства синтезированной технологической оснастки, изготовления инструментов, деталей лайнеров и множества других изделий. Есть все основания полагать, что аддитивное производство в ближайшее время приобретет статус стратегически важных, приоритетных технологий машиностроения. Во всяком случае, в США это произошло еще летом 2012 года, когда в городе Янгстоун (штат Огайо) был открыт Национальный институт аддитивного инновационного производства (National Additive Manufacturing Innovation Institute, NAMII) — первый из 15 институтов чисто технологической направленности, создаваемых по инициативе президента Обамы с целью «ускорить инновационное развитие и усилить конкурентоспособность США». Всего на создание 15 институтов выделено около 1 млрд долл.
Буквально на глазах происходит небывалая революция. Если на протяжении тысячелетий основными инструментами были резец, литье, ковка и штамповка, иначе говоря, вычитающие (subtructive) технологии, при которых соотношение заготовки к конечному продукту доходит до 20:1, то аддитивные технологии позволяют свести этот показатель к 1,5–2,0:1. Кроме того, появилась возможность ускорить, полностью автоматизировать и связать в единый комплекс процесс проектирования и производства — CAD с CAM, получив прямое производство (Direct Manufacturing). Например, сегодня, благодаря широкому использованию аддитивных технологий, в разработке и производстве космического аппарата SpaceX Dragon и ракетоносителей Falcon было занято всего около тысячи человек, что на несколько порядков меньше, чем обычно требуется при создании ракет и космических аппаратов обычными средствами. Как планируется, в 2014 году на Международную космическую станцию будет доставлен 3D-принтер компании Made in Space, который должен позволить изготавливать детали и запасные части непосредственно на орбите, что при отсутствии силы тяжести откроет путь к созданию качественно новых материалов.
2. Умные машины (Smart Machines). Данный термин предложил Марвин Минский в книге The Society of Mind, написанной на первой волне увлечения искусственным интеллектом, когда близкой реальностью казались машины, способные играть в шахматы и доказывать теоремы. Многие прожекты так и остались лишь идеями, но термин сохранился и сегодня начинает жить новой жизнью, менее академичной и более практической. Современные умные машины не только могут безошибочно выполнять повторяющиеся операции с высокой скоростью и точностью, но и обладают автономностью, способностью к самостоятельным действиям. Их следующее поколение будет отличаться от сегодняшних промышленных роботов мультифункциональностью, малыми габаритами, возможностью адаптации к потребностям пользователей, реализуемой путем сбора нужной функциональности в одной машине. Такие машины будут самоуправляемы — смогут оценивать состояние окружающей среды, обнаруживать и исправлять ошибки, например, реагировать на изменение качества входного материала, нарушение расположения движущихся узлов или износ оборудования. Снабжение машин многочисленными датчиками делает их безопасными и способными работать рядом с людьми, а включение в программное обеспечение средств data mining — способностью к самообучению. Уже сегодня такие машины снабжаются разнообразными средствами для взаимодействия между собой, способны координировать свои действия, перераспределять нагрузку с «коллегами», информировать персонал о неисправности соседних машин.
3. Программно-конфигуруемое всё (Software-Defined Everything, SDE). Словосочетанию Software-Defined всего несколько лет, но оно очень точно отразило глубинную тенденцию в развитии ИТ, поэтому неудивительно, что его значение пока еще недостаточно осмысленно. Стек Software-Defined можно рассматривать на разных уровнях абстракции. На самом верхнем — парадоксально звучащее Software-Defined Software, программно-конфигурируемое ПО. Пока это некоторая умозрительная парадигма, предполагающая разрыв жестких связей между программами, оборудованием и данными, называемая слабой связанностью (loose coupling), динамической интеграцией (dynamic integration) и т. п., и на практике в заметных масштабах не реализованная из-за недостаточной востребованности. Однако облака и мобильность — два фактора, которые будут способствовать движению именно по этому пути. Будущее, по мнению ряда экспертов, в возможности выполнять приложения там, где это удобнее: если данных много — то ближе к данным, если важнее взаимодействие с мобильным пользователем — то ближе к нему. В таком случае должна быть предусмотрена функция передачи полномочий в соответствующие пункты, названные Point-of-Activity Empowerment (PofAE).
В более узком смысле под SDE понимают группу близких по общей мысли, но различающихся по реализации технологий, объединенных общим свойством программной конфигурируемости или определяемости. Чаще всего в эту группу включают сети (Software-Defined Networking, SDN), центры обработки данных (Software-Defined Data Center, SDDC) и системы хранения данных (Software-Defined Storage, SDS). Во всех трех случаях переход от жесткой к программируемой архитектуре обеспечивает динамичность и высокую экономическую эффективность. Внимание к SDE объясняется несколькими причинами: системы становятся более динамичными и их можно оптимизировать, можно изменять архитектуру в соответствии с изменяющимися требованиями, а если не хватает производительности, то, прежде чем покупать новое оборудование, можно попытаться перестроить старое.
Подход к организации сетей SDN зародился в двух калифорнийских университетах — в Беркли и Стэнфорде в 2006-2008 годах, коммерциализировался в компании Nicira и сейчас развивается повсюду. От предшествующих сетевых конструкций с разделением процессов передачи и управления данными SDN отличается централизованным управлением сетью с использованием унифицированных программных средств при частичной виртуализации физических сетевых ресурсов. Трафик передается по своим каналам (data plane), а управление — по своим (control plane). При создании SDN обычно используется протокол OpenFlow, принятый в качестве стандарта на интерфейс между логическими контроллерами и физическим сетевым транспортом. Идея SDDC была предложена в 2012 году Стивеном Херродом, в ту пору техническим директором VMware, и была воспринята неоднозначно — одни видят в ней основу для будущих масштабируемых облачных вычислений, а другие считают ее маркетинговым трюком. Архитектура SDDC есть не что иное, как распространение концепции виртуализации на все ресурсы ЦОД и использование средств абстрагирования и автоматизации управления. В SDDC все ресурсы агрегированы и распределяются в виде сервисов. Программно-конфигурируемые системы хранения возникли на волне интереса к SDN, но здесь разделяются не потоки данных и управления, а аппаратура хранения данных абстрагируется от управляющего ПО. Программе передаются функции, которые ранее были жестко «зашиты» в оборудовании. В результате появилась возможность применять гетерогенные решения, не заботясь о согласовании и оптимальности использования ресурсов, а все основные функции, такие как дедупликация, репликация, динамическое резервирование (thin provisioning) и создание мгновенных снимков (snapshot), выполняются программно.
4. Диски вместо лент, SSD вместо дисков. Все виды памяти дешевеют одновременно с ростом потребности в работе с большими объемами данных и необходимостью их оперативной обработки. На этом фоне меняется архитектура, набирает популярность обработка в памяти (in-memory computing), а снижение стоимости хранения в RAM открывает возможность использовать обработку в памяти для все более широкого круга приложений и решать за секунды задачи, прежде требовавшие часов. Доступность технологий in-memory открывает более широкие возможности для кэширования и обработки сложных событий. Альтернативные флэш-технологии, такие как память на основе фазового перехода (PCM), резистивная память с произвольным доступом (RRAM) и магниторезистивная оперативная память (MRAM), обладают вполне приемлемыми для рынка характеристиками. Кроме того, такие технологии, как 3D V-NAND, позволяют на порядок увеличить надежность работы накопителей, а скорость передачи данных увеличить вдвое. Успеху флэш-технологии также способствует возможность изготавливать память в разных форм-факторах и с разными интерфейсами.
5. «Облако — новое железо». Этот тезис провозгласил Пол Маритц, который сейчас возглавляет компанию Pivotal, созданную EMC для экспериментальных работ, связанных с развитием модели PaaS. В интерпретации облака как универсальной платформы просматривается очередная и, скорее всего, не последняя попытка реализовать идею коммунального компьютинга (utility computing). В таком случае впору говорить о Personal Cloud (а не Personal Computer). Хотя персональное облако — явление совсем новое, представление о нем уже успело заметно измениться: сначала предполагалось, что это некий набор виртуальных машин, расположенных на площадке пользователя, но потом возобладала иная трактовка, и теперь под Personal Cloud стали понимать индивидуальный набор цифрового контента, сервисов и приложений, к которому обеспечен доступ с устройства любого типа. Такой Personal Cloud не связан с определенной физической реализацией — в этом состоит отличие от частного облака (Private Cloud). Начавшееся движение BYOD и массовое распространение планшетов можно считать первыми предвестниками грядущих изменений. Переход к новому PC неизбежно приведет к потребительской революции, признаки которой уже просматриваются в социальных сетях, и в конечном итоге вызовет изменение способа общения людей. Похоже, что из трех канонических форм сервисов IaaS, PaaS и SaaS наилучшие перспективы у PaaS — именно этот подход способен превратить облако в «железо», скрыв от пользователя все внутренние сложности. В авангарде этого движения отделившаяся от EMC компания Pivotal, объединившая в «мыслящий танк» многие приобретения этой корпорации, начиная от Greenplum и Cloud Foundry до Spring, GemFire, Pivotal Labs, а также известные продукты VMware и прежде всего vFabric Suite. В итоге сложился набор продуктов, обеспечивающий всю необходимую для современных систем функциональность, включая приложения, средства для работы с данными, несколько аналитических пакетов, средства для управления облаками, ряд вспомогательных технологий и обширный список свободного ПО. Свою главную задачу Маритц видит в разработке облачной операционной системы, которая объединит все это богатство.
6. Посредники для облаков. В июне 2011 года аналитики Gartner выступили с прогнозом, согласно которому еще недавно отсутствующий сегмент рынка брокеров облачных сервисов (Cloud Services Brokerage, CSB) к 2015 году достигнет размера 100 млрд долл. Аналитики, конечно, погорячились, но успех этому сегменту гарантирован: CSB избавят облачные технологии от сомнений в их безопасности; сделают облака доступными предприятиям малого и среднего бизнеса, заполнив существующий разрыв между частными облаками, создаваемыми крупными предприятиями, и публичными, востребованными конечными пользователями; создадут эффективную «службу одного окна» для сервисов, предоставляемых разными провайдерами, что избавит от нынешней привязки к одному провайдеру. Брокеры призваны установить связи между поставщиками сервисов и потребителями. В этом сегменте пока действуют небольшие молодые компании: CloudKick, CloudSwitch, CohesiveFT, DeltaCloud, Elastra, enStratus, Kaavo, Layer7 Techologies, LTech, RightScale, Vordel и Zimory.
7. Аналитика действия. Требуемое сегодня управление сложными инфраструктурами и бизнес-системами в режиме реального времени невозможно без активной аналитики, в основе которой лежат визуальная аналитика (Visual Analytics, VA) и разнообразные технологии извлечения информации из данных (Data Discovery, DD). Еще несколько лет назад массовое распространение таких технологий было невозможно — своим появлением они обязаны «революции BI в памяти» (The In-Memory Business Intelligence Revolution), «аналитике в памяти» (In-Memory Analytics) и даже «аналитике на чипе» (In-Chip Analytics). Системы VA и DD заметно отличаются от традиционных систем бизнес-анализа — качественно новым является необходимость учета когнитивных способностей человека.
Леонид Черняк (osmag@osp.ru) — научный редактор, «Открытые системы.СУБД» (Москва).