Teradata готова стать самостоятельной компанией
В конце апреля в Варшаве состоялась конференция для заказчиков компании Teradata из региона EMEA. В настоящее время компания находится в процессе выделения из материнской компании NCR в самостоятельную компанию.
С ключевым докладом перед клиентами выступил будущий генеральный директор Teradata, а пока — старший вице-президент NCR Майкл Колер. Он сообщил, что окончательное отделение компании, начатое в январе, произойдет приблизительно в третьем квартале текущего года. По его словам, возможность отделиться от NCR была обеспечена стабильными финансовыми показателями, которые материнская компания демонстрировала последние четыре-пять лет, в особенности чистой прибылью, которая по итогам 2006 года составила более 600 млн. долл., и стоимостью акций, которая с начала 2003 года увеличилась в четыре раза.
«Если вы посмотрите отдельно на прибыль NCR и отдельно на прибыль Teradata, то обнаружите, что по итогам 2006 года эти два показателя превышают значение общей прибыли NCR несколько лет назад, — сказал Колер. — Это ключевой критерий, по которому принималось решение о выделении Teradata».
Оборот Teradata в 2003 году составил 1,2 млрд. долл., а тремя годами позже приблизился к отметке 1,6 млрд. долл. Глава компании особо отметил, что в то время как в индустрии идут процессы консолидации, в результате которых компании увеличиваются в размерах, и вслед за этим растут их обороты, рост Teradata обеспечивался исключительно внутренним органическим развитием. По оценкам биржевых аналитиков, капитализация компании после выхода на биржу составит около 5 млрд. долл., она войдет в десятку крупнейших софтверных компаний мира.
Число консультантов, работающих на Teradata, с 2003 года увеличилось на 64% и достигло 2,5 тыс. человек, а количество инженеров отдела исследований и разработок за тот же период увеличилось на 28%.
Клиентами Teradata являются компании из отраслей розничной торговли, телекоммуникаций, транспорта, финансовой сферы, производства. Подход компании заключается в создании единого хранилища, в котором аккумулируются все данные предприятия. В результате чего все подразделения предприятия работают с одной и той же «версией правды».
Относительно новой концепцией, о которой шла речь на конференции, стала Active Enterprise Intelligence. Суть этой новации сводится к тому, что информацией, полученной в результате анализа данных, находящихся в хранилище, должно пользоваться как можно больше сотрудников компании, в том числе и те, кто находится «на передовой» и принимает оперативные решения, а не только высшее руководство, отвечающее за выработку стратегических решений. Кроме того, данные в хранилище должны быть как можно более свежими.
«Компаниям уже недостаточно работать с данными суточной или недельной давности, все большую ценность приобретает доступ к данным часовой и минутной свежести, для того чтобы на основе этой информации принимать оперативные меры», — полагает Колер.
Технологическим анонсом конференции стал запуск сервиса Multi-Temperature Data Warehousing, которая позволяет компаниям применять в своих информационных системах менее дорогие жесткие диски большого объема, не жертвуя при этом быстродействием. Проблема заключается в том, что емкость доступных на рынке дисков удваивается каждые 12-18 месяцев, а интерфейсы ввода/вывода не поспевают за этими объемами, что не дает возможности использовать емкие диски в бизнес-критичных хранилищах либо не позволяет использовать емкость больших дисков в полном объеме.
Решение проблемы достигается путем разделения данных на «горячие» — те, к которым доступ осуществляется часто, и «холодные» — используемые реже. При этом система самостоятельно определяет, к какой категории следует относить данные в конкретный момент. Опираясь на сведения о принадлежности данных к той или иной «температурной зоне», сервис обеспечивает соответствующий приоритет при обращении к ним. В результате редко используемые данные могут продолжать находиться в системе, но стоимость их хранения будет минимальной, потому что в противном случае то место, которое они заняли, могло бы вообще не использоваться. А к данным, требующим высокой скорости доступа, система будет обращаться с повышенным приоритетом.