32% компаний, участвовавших в опросе, проведенном аналитиками фирмой IDC, уже используют кластерную СУБД Hadoop. Еще 31% планируют внедрение на ближайший год, а 36% — на последующие годы. Однако Hadoop не является для них единственным средством анализа больших объемов данных. Почти 39% участников опроса сообщили, что наряду с Hadoop применяют нереляционные СУБД HBase, Cassandra или MongoDB, а почти 36% — СУБД с массово-параллельной обработкой Greenplum, Vertica и другие.
Итоги опроса подтверждают мнение директора по аналитике Facebook Кена Рудина о том, что Hadoop одна не сможет выполнить всю работу по анализу больших объемов неструктурированных данных. Компании применяют Hadoop в различных целях. 39% опрошенных упомянули анализ наборов вторичных данных для моделирования возможных сценариев работы продуктов и сервисов. Другие используют Hadoop как платформу для задач, не связанных с аналитикой — например, для оперативной обработки транзакций (OLTP) с оболочкой SQL.
В результате крупные компании начинают искать альтернативные решения для организации постоянного хранения данных, отмечают аналитики. Вместо файловой системы HDFS они предпочитают IBM Global File system (GPFS), Red Hat Storage (GlusterFS), EMC Isilon OneFS и другие.