Сложившуюся уже традицию выбирать некоторое количество (7, 10 или 12) не связанных между собой технологий в качестве наиболее перспективных накануне очередного Нового года, можно объяснить мозаичностью общей современной технологической картины. На протяжении последних десятилетий не отмечалось какого-то объединяющего тренда, который бы определял отдельные происходящие события и придавал бы картине целостность. Однако традиция в 2012 году может быть нарушена — события могут развернуться по-иному. Как ни банально это прозвучит, но изменения следуют из диалектического закона перехода количественных изменений в качественные, закона, постулирующего, что качественные изменения наступают вследствие накопления незаметных и плавных количественных изменений, причем события происходят не постепенно, а внезапно, в виде скачкообразного перехода из одного состояния в другое.
На пути к предприятию, управляемому в реальном времени
Сегодня еще трудно представить себе CEO, CFO или CIO сидящими перед специализированными экранами, как, например, операторы сложных технических систем типа Центра управления полетами космических аппаратов, но дело явно идет к тому. Леонид Черняк |
Похоже, что из всех аналитиков в университетах изучали диалектику только некоторые эксперты из IDC, которые смогли осознать происходящие перемены на системном уровне и нашли для нее удачное название — «Третья платформа» (The 3rd Platform). Первой были мэйнфреймы, второй — ПК, а отличительными признаками третьей стал сплав таких явлений, как: отказ от монополии ПК в качестве оконечного устройства, облака, Большие Данные и аналитика. Для корпоративных ИТ третья платформа означает возврат к централизованной модели управления предприятием. По мнению старшего вице-президента и главного аналитика IDC Франка Генса, переход на третью платформу является чрезвычайно серьезным вызовом всем игрокам рынка, и то, как они в ближайшее время отреагируют на новые требования, определит их судьбу на десятилетия вперед.
Двадцать лет назад с приходом ПК в корпоративную сферу произошла децентрализация систем управления — они развалились на отдельные приложения с бесконечными трехбуквенными обозначениями, но в последующем осознание того, что какое-то единство все же необходимо, породило компенсационные меры, отсюда разнообразные интеграционные подходы к данным и приложениям, попытки «править» (governance) и прочие необходимые, но малоэффективные решения, страдающие очевидным отсутствием системного подхода.
В начале декабря 2011 года компания HP обнародовала данные, полученные в результате исследования, выполненного по ее заказу аналитиками Coleman Parkes Research. Его целью было обнаружение узких мест, затрудняющих руководителям работу с бизнес-информацией, и выявление наиболее заметных тормозов, затрудняющих процессы управления предприятиями и организациями. Исследование показало, что при всех огромных вложениях в ИТ у подавляющего большинства опрошенных топ-менеджеров до сих пор нет средств и технологий анализа информации, которые могли бы реально помочь лучше понять текущую ситуацию и поспособствовать принятию оптимальных бизнес-решений. Из всех респондентов только 2% заявили о готовности ИТ-инфраструктуры их организаций к работе в режиме реального времени, об обеспеченности данными, необходимыми и достаточными для своевременного принятия бизнес-решений. Этот процент сопоставим с ошибкой измерения, и вывод прост, но неутешителен — все существующие ИТ продуктивны только в разнообразных операционных приложениях, которые, как бы они ни были сложны, остаются рутиной, а реальных, работающих технологий для поддержки принятия решений, приложений, критически важных для эффективного управления предприятиями, нет. Скажем, «пока нет», поскольку именно сейчас наметились явные положительные сдвиги по направлению к созданию подобных приложений, которые бы сделали реальностью «предприятие, работающее в режиме реального времени» (Real Time Enterprise, RTE). Этот факт не может не радовать; десять лет назад, когда была опубликована статья «На пути к предприятию, управляемому в реальном времени», о RTE можно было говорить лишь в будущем времени, а десять лет спустя оно становится почти реальностью — решение проблемы обеспечения необходимой информацией лиц, принимающих решения, будет возможно именно теми средствами, которые прогнозируются на 2012 и последующие годы.
Нынешние основные тренды и прогнозы на 2012 год позволяют представить будущее, которое, впрочем, не столь уж неожиданно, — лучшие умы человечества давно понимали, что требуется, но кроме понимания нужны были знания, опыт и технологии. Самая удивительная публикация из всех когда-либо встреченных, где было предсказано почти все, принадлежит перу Ванневара Буша — это эссе As We May Think, опубликованное в июле 1945 года в журнале The Atlantic Monthly. Статья вышла за месяц до применения атомной бомбы (Буш был одним из административных руководителей Манхэттенского проекта), а в своей статье он хотел указать на научное направление, нацеленное не на разрушение, а на расширение возможностей человеческого мозга. Относительно небольшая публикация настолько глубока, что ее, как классическое произведение, можно перечитывать не раз, обнаруживая что-то новое с каждым новым прочтением. Раньше в ней улавливалось предсказание персональных компьютеров и гипертекста, потом Wikipedia, а сейчас все то, что ассоциируется с Big Data и новой аналитикой. Буш возлагал свои надежды на машину memex (memory extension) как на средство, которое поможет превратить количественный рост данных в расширение знаний. В 1945 году это была фантастика, а сейчас реальность. Результаты Coleman Parkes Research показывают, что для поддержки принятия решений как раз и нужен современный memex — все, что для его создания нужно, сводится к умению собирать данные, работать с ними, анализировать и выделять требуемую информацию. Именно поэтому большинство индустриальных аналитиков ставит на одно из первых мест Big Data, связанную с ней новую науку Data Science и аналитику следующего поколения (Next-Generation Analytics).
В новых условиях появляется возможность классифицировать прогнозы на будущее, например разделив их на три группы: фундаментальные технологии, составляющие основу третьей платформы; технологии, обеспечивающие пользователям доступ к возможностям платформы; технологии пока не связанные с платформой, но которые могут быть использованы в ближайшие годы.
1. Облака. Чтобы облака действительно превратились в коммунальную услугу, необходимо интегрировать все их ресурсы.
Облака удивительным образом собрали в себе все те замыслы, которые возникали на протяжении предшествующего десятилетия: самоуправляемые компьютерные системы (autonomic computing), модель клиент-сервер, Grid, мэйнфеймы, «коммунальный» компьютинг, распределенная модель без центрального координирующего органа (P2P).
Перспективы облаков в 2012 году:
- произойдет разделение функций примерно такое, как в энергетике, на генерирующие и транспортирующие компании, то есть между провайдерами инфраструктуры и провайдерами сервисов, фокус внимания сместится с IaaS на PaaS;
- будет прорыв в области безопасности — для большинства компаний вопрос о сохранности данных в Сети будет снят;
- ожидаются заметные изменения на рынке труда — при явном переизбытке администраторов нехватка опытных профессионалов будет ограничивать рост частных облаков и стимулировать переход в глобальные облака, сократится спрос на разработчиков с традиционными навыками и знаниями в пользу владеющих новыми, такими как Ruby on Rails, HTML5 и др.;
- будет меняться организация бизнеса, то, что называют Line Of Business (LOB) — на смену тяжелым, широко функциональным приложениям придут более легкие, собираемые из имеющегося набора модулей, рассчитанные на доступ с мобильных устройств, а предприятия обзаведутся своими «магазинами приложений», аналогичными AppStore;
- усилятся тенденции к объединению облаков (федерированию), получат дальнейшее развитие средства интеграции облаков (Cloud-to-Cloud Integration, C2I);
- для доступа к облакам на корпоративном уровне основным устройством останется ПК, на долю планшетов, смартфонов, нулевых и тонких клиентов придется не более 20%, но обслуживание всего этого зоопарка будет все дороже и сложнее.
2. Большие Данные и наука о данных. Очередная революция в индустрии пройдет под знаком композитных материалов и данных.
Термин Big Data появился явно с перепугу, скорее всего под влиянием разошедшихся по миру кинокадров об участившихся за последнее время природных катаклизмах — на самом деле данных производится ровно столько, сколько можно произвести, а далее желательно полученные данные употребить с пользой, поэтому лучше бы подошло название Right Data, «правильные данные». Перед современными предприятиями стоит не какая-то абстрактная «проблема Больших Данных», а вполне реальная задача принятия решений относительно того, как получить максимальную пользу от имеющихся данных, работать с новыми объемами данных, как получать к ним доступ, как покупать и продавать данные, оперировать ими и анализировать. Иначе говоря, наступает эпоха индустриальной работы с данными.
Чтобы вписаться в эту эпоху, по мнению аналитиков Forrester, информационным подразделениям предприятий необходимо решить несколько задач:
- помочь бизнесу открыть глаза, увидеть и осознать открывающиеся возможности;
- выработать целостный подход к созданию информационной архитектуры предприятия и согласовать эту архитектуру с существующими способами получения данных и информации;
- модернизировать технологическую инфраструктуру, разработать перспективный план ее развития.
Для всего этого потребуются люди новых специальностей: ученые по данным (data scientist), архитекторы данных (data architect), проектировщики пользовательских запросов и специалисты, способные учесть опыт пользователей (user experience designer). Спрос на представителей этих специальностей будет расти экспоненциально.
Data scientist — работник или консультант, чья деятельность связана с анализом больших объемов данных с целью совершенствования систем управления бизнесом. Работа data scientist предполагает наличие знаний в таких областях, как аналитика, машинное обучение, добыча данных (data mining), статистика в сочетании с пониманием конкретной предметной области. Самой востребованной специальностью в 2012 году будет Chief Data Scientist.
Data architect отвечает за организацию информационных активов предприятия таким образом, чтобы она в наилучшей мере способствовала целям и задачам бизнеса. Квалификационные требования к этой категории специалистов включают образование в следующих областях: базы данных, интеграция данных, технологии получения и сбора данных. Data architect должен уметь строить модели данных, а комплекс его знаний включает управление метаданными и семантику бизнеса. Data architect отвечает за разработку и поддержку формальных описаний и структур данных, моделей и потоков данных, включая метаданные.
Под User Experience подразумевают опыт, полученный пользователем при непосредственном взаимодействии с объектами окружающего мира, или восприятие человеком функциональных и эмоциональных характеристик продукта (услуги) в процессе использования. Проектирование (Experience Design) основывается на User Experience, то есть в большей степени на непосредственных потребностях пользователей, а не на функциональности, оно базируется на когнитивной психологии, психологии восприятия, лингвистике, этнографии и многом другом. Таким образом, User Experience Design — это подмножество Experience Design, включающее в себя все аспекты взаимодействия пользователя с продуктами и услугами.
3. Аналитика. Из всех приложений бизнес-аналитики наибольший рост продемонстрирует прогнозная аналитика.
Анализ данных (Data Analytics, DA) — область деятельности, связанная с обработкой сырых данных с целью выделения из них полезной информации. DA рассматривается как основа для принятия решений. Data Mining также анализирует большие объемы данных с целью обнаружения скрытых закономерностей, распознавания образов, установления не очевидных связей, используя для этого ПО, основанное на серьезном математическом аппарате, тогда как DA сводится к поддержке системы выводов и умозаключений в соответствии с тем, что исследователю ранее известно. В первом случае используется интеллект машины, а во втором — человека.
Облака отрывают возможности для широкого использования DA в приложении к Big Data. В качестве IaaS могут служить предложения провайдеров, поддерживающие аналитические решения в режиме по требованию. Практически все современные аналитические решения DA построены на принципах MapReduce, предложенных Google и распространенных в решениях с открытыми кодами Hadoop.
Hadoop, MapReduce и облака позволяют решить проблему аналитики Big Data.
4, 5. Технологии доступа к платформам. Наступление эры post-PC предполагает многообразие форм компьютерных систем.
Планшетные устройства и консьюмеризация ИТ останутся, безусловно, модными в 2012 году, но разбираться в причинах их популярности и их будущем предстоит не инженерам, а психологам, поскольку здесь правят не рациональные аргументы, а особенности ментальности и маркетинг. По бессмысленности происходящее в этой области можно сравнить с тем, что происходит в автомобильной промышленности, где на фоне бесконечной борьбы за безопасность до сих пор нет решения по высоте и конструкции бамперов.
6. SSD и In-Memory Computing. Поколоночные СУБД, твердотельные накопители и облака существенно повлияют как на принципы построения баз данных, так и на пути развития методов бизнес-аналитики.
До сих пор массовому внедрению твердотельных накопителей мешали цена и неготовность ПО использовать их преимущества, к 2012 году оба барьера полностью преодолены, и ничто не мешает модернизации систем хранения данных и появлению новых серверных архитектур.
7. Высокопроизводительные компьютеры на базе новых архитектур.
В 2008 году сотрудники лаборатории Parallel Data Laboratory Университета Карнеги-Меллона разработали конструкцию, которую можно сравнить с многоклеточным организмом — узлы кластера были более тесно функционально интегрированы, чем это принято в традиционных системах, и имелась оригинальная система управления этими узлами, построенными на процессорах ARM. Речь шла о FAWN (Fast Array of Wimpy Nodes) — быстром массиве из слабых узлов. Два года спустя начинающая компания SeaMicro представила сервер SM10000 на 512 процессорах Atom, в котором реализованы подходы, близкие к архитектуре FAWN, вслед за ней эту инициативу подхватила HP, образовав специальное подразделение HyperScale Computing, аналогичные работы начали выполнять и в Dell.