Руководители компаний полагают, что анализ Больших Данных может стать самостоятельным фактором роста доходов. Более того, многие из них надеются, что он может выявить совершенно новые источники прибыли. В ходе опроса, проведенного Capgemini совместно с EMC, участники сошлись во мнении, что без новых методов анализа данных их компания рискует оказаться неконкурентоспособной. Более гибкие компании-стартапы, владеющие методами обработки Больших Данных, повышают уровень конкуренции в отраслях.

Что любопытно, в 36% организаций проекты Больших Данных, будучи стратегически важными, проводятся без участия собственной ИТ-службы. Руководители недовольны тем, что ограниченные возможности их ИТ-департаментов мешают оперативно извлекать из данных полезную информацию.

Проводятся и организационные изменения: более 70% компаний заявляют, что в ближайшее время начнут перестройку бизнеса, связанную с обработкой Больших Данных. В трети компаний уже созданы должности руководителей, отвечающих за работу с данными.

Оценка Gartner во многом схожа: аналитики говорят о 73% компаний, которые в ближайшие два года начнут проекты Больших Данных. Тем не менее рост инвестиций не отражается на уровне внедрения технологий. Как и в прошлом году, основная часть приходится на разработку стратегии, а также пилотные и экспериментальные проекты. В 2013 году только 8% опрошенных рассказали о промышленной реализации проектов Больших Данных, а в 2014 году их доля выросла до 13%. Однако аналитики отмечают улучшение понимания технологий и повышение готовности к исследованию их возможностей.

Вместе с тем, подчеркивают в Gartner, организации пока не знают точно, какие именно данные собираются анализировать. Почти все виды источников, в том числе чрезвычайно сложные в обработке аудио и видео, получили примерно равные доли ответов — от 30 до 40%.

Уровень зрелости российского рынка Больших Данных, несмотря на традиционное отставание от западного, за последний год заметно повысился. По крайней мере крупные компании показывают сложившееся понимание потенциала подобных решений для своего бизнеса.

По данным СNews Analytics, более трети российских компаний приступили — хотя бы на самом начальном этапе — к работе с технологиями Больших Данных, а еще 36% организаций рассматривают такую возможность. При этом более четверти ИТ-директоров воспринимают Большие Данные, скорее, как концепцию, включающую не только технологии, но и подходы, методики и т. д. Лишь 14% ставят знак равенства между Big Data и, например, Hadoop. Как подчеркивают аналитики, дальнейший успех Больших Данных в России будет зависеть от уже известного ряда факторов: наличия подготовленного персонала, объема накопленных данных, готовности к адаптации технологий и процессов у заказчиков, а также адекватных запросам заказчиков предложений.

 

 

«Для сферы Больших Данных характерны все традиционные “детские болезни”, обусловленные незрелостью технологий», — признал Евгений Степанов, менеджер по продажам решений HP Big Data в России, в рамках форума Big Data 2015, организованного издательством «Открытые системы». Сейчас существует достаточно много инструментов, но проверенных на практике, стандартизованных методик пока не хватает. Чтобы понять, какому именно подходу следовать, надо уяснить, какими данными компания обладает, сколько денег тратит на поддержку существующих систем, насколько эффективно решает поставленные задачи.

«Определенным барьером является то, что традиционный подход к технико-экономическому обоснованию проектов Больших Данных невозможен», — констатирует Сергей Золотарев, глава Pivotal в России и СНГ. Обычно в ИТ-проектах существует четкий функционал, заказчик и ожидаемый результат. В случае Больших Данных результат зачастую трудно прогнозировать, а потенциальными заказчиками могут выступать сразу несколько департаментов компании. Именно поэтому руководить таким проектом должно одно из первых лиц, видящее задачи нескольких смежных подразделений.

«Многие заказчики уже нащупали круг задач, которые можно решать с помощью Больших Данных, определился и спектр доступных технологий», — полагает Илья Гершанов, руководитель направления Больших Данных компании Informatica. По его мнению, сократить достаточно высокие риски и сроки проектов поможет использование поставщиками заготовок — «типовых» проектов Больших Данных для поддержки бизнес-инициатив.

Компании чаще всего приходят к проектам Больших Данных двумя путями: создавая новое хранилище данных или модернизируя существующее, не устраивающее по стоимости и производительности.

«За хранилищем данных в любом случае нужно следить, иначе оно превратится в помойку», — говорит Егор Осипов, эксперт направления «Хранилища данных, аналитика и Big Data» компании «Крок». Миграция хранилища с одной технологии на другую отлично помогает санировать данные, и хорошим поводом для этого становится начало проектов Больших Данных.

Не теряет актуальности и проблема масштабирования. Как отметил Дмитрий Толпеко, руководитель направления «Хранилища данных и Big Data» компании EPAM Systems, зачастую в хранилища поступает так много данных, что обрабатывать их в разумные сроки не представляется возможным. В этом случае кластеры Hadoop становятся не заменой традиционных хранилищ, а скорее их дополнением, в отдельных ситуациях — даже спасением.

Критическую важность для корпоративного сектора приобретают решения с открытым кодом. Они вовсе не бесплатные и в конечном итоге обойдутся заказчику в такую же сумму, что и коммерческие продукты. Однако открытие решений должно стать важным шагом для их принятия рынком. По словам Золотарева, решения Greenplum и GemFire к концу года станут открытыми. Подобных шагов ожидают и от других участников рынка.

Интернет вещей и облака

Самым наглядным примером использования Больших Данных становится клиентская аналитика. На данный момент люди — один из самых ценных источников Больших Данных. Как признал Николай Кацан, руководитель направления IBM по решениям в области управления информацией, анонимность в Сети иллюзорна, и всесторонний анализ данных о клиентах позволяет узнать о них многое — возможно, даже больше, чем те хотели бы. Однако уже в ближайшем будущем ситуация может радикально измениться.

«Основной поток информации будет поступать не от людей, а от устройств, встроенных в бытовые приборы», — прогнозирует Николай Местер, директор по развитию корпоративных проектов Intel. По его словам, это и будут настоящие Большие Данные. Организациям придется понимать, как из них извлекать пользу, создавая принципиально новые сервисы: по прогнозам Gartner, к 2020 году около 80% своей прибыли компании будут получать от услуг на основе анализа данных. Однако, если информацию не получится обрабатывать в режиме реального времени, ее ценность, равно как и ценность построенных на ней сервисов, будет резко падать, ломая экономику бизнеса. Таким образом, жизнеспособность многих будущих бизнес-моделей окажется в зависимости от производительности построенных ИТ-решений. Будет расти важность технологий обработки данных в оперативной памяти (in-memory) и флеш-технологий.

На рынке побеждают продукты, которые дешевле и проще. В случае с Большими Данными это облачные системы.

«Компании будут вынуждены учиться анализировать собираемую информацию, и облако сильно упрощает этот путь», — уверен Дмитрий Марченко, директор департамента Microsoft Cloud Enterprise. Операторы облачных решений быстро наращивают свои вычислительные мощности, а их ЦОД покрывают все большую площадь, становясь все ближе к заказчикам. Как считает Дмитрий Шемякин, старший системный инженер Infinera, для дальнейшего развития возможностей облачных систем очень важно обеспечить необходимую емкость каналов между площадками — транспортной сети для связи между ЦОД.

Нужна аналитика «с человеческим лицом»

Как согласились участники форума, сейчас путь аналитики Больших Данных «в массы» только начинает прокладываться. Пока основными пользователями Больших Данных являются представители профессии data scientist, которая еще не успела обзавестись устойчивым русскоязычным названием, однако смысл ее определился. Главное качество таких специалистов — умение задавать правильные вопросы к данным. Они должны обладать сбалансированными знаниями сразу в трех областях: математике, программировании и отраслевой бизнес-проблематике, — а также иметь развитое воображение и способности к визуализации получаемых результатов. Очевидно, что дефицит таких людей и их дороговизна являются вполне естественными. По выражению Григория Каневского, архитектора решений Teradata Aster, компаниям нужна «аналитика с человеческим лицом» — решения, направленные на широкий круг пользователей, позволяющие максимально интегрировать аналитические системы в бизнес-процессы.

Павел Миронов, директор департамента по работе с предприятиями энергетического сектора компании «Эр-Стайл», уверен: громадный объем информации можно переработать, только обладая способностью к ассоциативному мышлению, проведению аналогий. Именно благодаря технологиям Больших Данных есть возможность двигаться к автоматическому управлению производственными процессами. При этом можно обходиться без участия человека, особенно если речь идет о тяжелых и вредных условиях. Главное — достичь необходимого качества данных.