При этом в 2012 году только 4,3 млрд долл. было потрачено на закупки программного обеспечения, выполняющего новые функции обработки данных. Большая часть расходов связана с адаптацией традиционных решений к новым условиям работы — большим объемам социальных и машинных данных, их разнообразию, непредсказуемой скорости поступления и так далее.
Обработка Больших Данных повлекла за собой новые инвестиции почти во всех областях ИТ, говорится в докладе Gartner. Однако к 2018 году решение подобных задач станет уже минимальным требованием к технологиям управления информацией, а к 2020 году обработка больших объемов данных станет стандартной функцией продуктов всех основных разработчиков корпоративного программного обеспечения. К этому времени Большие Данные перестанут выделяться в отдельную категорию, а архитектурные подходы, инфраструктура, оборудование и программы, не рассчитанные на работу с ними, будут считаться устаревшими.