Долгое время в?сфере внимания ИТ-специалистов оставались клиентские решения, расположенные в?зоне полюсов по оси «толстый клиент- тонкий клиент». Однако и?компромиссная средняя часть может оказаться не менее, если не более перспективной.
Вопросы построения вычислительных кластеров сегодня активно обсуждаются в?ИТ-сообществе в?целом и?каждой предметной области в?частности. Например, для обсуждения проблем создания и?эксплуатации вычислительной инфраструктуры в ходе проведения экспериментов по физике высоких энергий регулярно проходят совещания HEPiX, анализ материалов которых позволяет понять текущее состояние дел в?этой области.
Ничем не примечательное калифорнийское местечко Penryn, что располагается километрах в сорока к северо-востоку от Сакраменто, своей нынешней популярностью обязано корпорации Intel. Еще не так давно об этом названии знали в основном лишь местные жители, а сегодня Penryn на слуху у всей ИТ-индустрии.
Инженерия - это сочетание научных знаний со знаниями, накопленными эмпирическим путем. Справедливость этого утверждения доказывает пример микропроцессора Power6, анонсированного 21 мая 2007 года. Процессоры, подобные ему, воплощают в себе сплав из новейших изобретений с гигантским опытом разработчиков, аккумулированным ими на протяжении десятилетий
В статье, опубликованной в New York Times в ноябре 2006 года, репортер Джон Маркофф заявил: «Коммерческий интерес к Web 3.0 или к Semantic Web, начинает возникать только теперь» [1]. Это заявление вызвало большое замешательство по поводу отношений между Semantic Web и Паутиной как таковой, а также между Semantic Web и некоторыми аспектами концепции, известной под названием Web 2.0. Некоторые эксперты отвергали термин «Web 3.0» как чрезмерно ориентированный на бизнес; другие подозревали, что изложенные в статье концепции являются лишь частью более широкого представления о Semantic Web, а третьи чувствовали, что как ни назови, а проникновение Semantic Web в бизнес-раздел New York Times означает достижение определенной зрелости. Стандартизация Resource Description Framework (RDF) и Web Ontology Language (OWL), языков, лежащих в основе Semantic Web, и вызревание новых технологий до встраивания семантики в существующие Web-страницы и до запросов RDF к хранилищам знаний показывают, что в этой области явно происходит что-то безумно интересное.
В условиях, когда вся совокупность сведений о компании представлена в данных, их хранилища становятся едва ли не главным ее стратегическим активом: для поддержки и анализа результатов деятельности необходимо, чтобы оперативно было доступно все больше информации. Системы, построенные на основе универсальных технологий, оказываются перед этим вызовом, слишком жесткими и дорогостоящими, поэтому появление специализированных аппаратно-программных решений, которые предлагают как начинающие компании, так и лидеры рынка, указывает на зарождение новой архитектуры платформ хранилищ данных.
Начиная разработку процессора Niagara, инженеры Sun Microsystems исходили из следующего предположения: «При конструировании современных процессоров практически все делается неправильно, а единственно верным решением станет возврат к простым идеям ранней микропроцессорной эры». Эволюция никогда не идет по одному, магистральному, пути - организмам приходится адаптироваться к разным условиям, причем иногда оказывается, что более «примитивный» и менее требовательный предшественник лучше приспособлен к агрессивной среде, нежели его развитый потомок. Точно так же и в эволюции процессоров иногда наблюдается возврат к идеям, которые, казалось бы, давно уже принадлежат прошлому.
На протяжении длительного времени прогресс в области микропроцессоров фактически отождествлялся со значением тактовой частоты. В 2001 году в корпоративных планах производителей микропроцессоров значилось, что уже к концу десятилетия будет преодолен барьер 10 ГГц. Увы, планы эти оказались неверны. Прав же оказался тот, кто сделал ставку на многоядерные архитектуры.
Память современных компьютеров в принципе отличается от легендарных ферритовых колечек только своей емкостью и быстродействием: она последовательна по своей природе. С появлением многоядерных процессоров возникает необходимость в альтернативных решениях. Возможно, таким решением станет транзакционная память.
Одно время бытовало мнение, что поддержка различных операционных систем на одной физической машине нужна лишь для мэйнфреймов, однако усложнение массово применяемых платформ и рост их производительности возродили интерес к аппаратной поддержке виртуализации, причем уже не только для серверов, но и для клиентских компьютеров и встраиваемых систем, что, в свою очередь, потребовало пересмотра архитектуры серийных микропроцессоров.
В феврале 2001 года семнадцать представителей нетрадиционных направлений программной инженерии сформулировали основные принципы «скорой» (agile) разработки в документе под названием Agile Manifesto. Среди авторов манифеста был Джеф Сазерленд — создатель самой первой agile-методологии Scrum.
От обычных виртуальных машин осталось сделать всего один шаг к специализированным виртуальным устройствам, а дальше открывается возможность создания сетей на их основе и, может быть, пересмотр подходов к архитектурам информационных систем.
Количество электроэнергии, которая потребляется компьютерными инфраструктурами, в том числе персональными компьютерами, серверами, центрами обработки данных, маршрутизаторами и коммутаторами, стремительно растет. Ситуация осложняется тем, что высокопроизводительные системы в процессе работы выделяют все больше тепла. Для борьбы с этим производители встраивают в оборудование системы охлаждения, работа которых опять-таки требует все больше электроэнергии. Самые большие вычислительные комплексы, такие как центры обработки данных, теперь потребляют больше энергии, чем некоторые крупные заводы. Например, пять крупнейших поисковых компаний в настоящее время используют около 2 млн. серверов, которые, по словам вице-президента Ask.com Дэйна Сэмпсона, потребляют примерно 2,4 ГВт электроэнергии, что сравнимо с мощностью в 2 ГВт, генерируемой гидроэлектростанцией Hoover Dam. Все это стало поводом для начала строительства компаниями, подобными Ask.com, Google, Microsoft и Yahoo, собственных небольших гидростанций на реках американского Северо-Запада, где они могут получить относительно недорогую электроэнергию.
Сегодня графические процессоры из устройств с традиционным фиксированным набором функций конвейера трехмерной графики постепенно превращаются в гибкий вычислительный механизм общего назначения. В начале 90-х годов повсеместная доступность интерактивной трехмерной графики казалось чем-то из области фантастики. Однако уже к концу десятилетия почти все новые компьютеры оснащались графическим процессором (Graphics Processing Unit, GPU), предназначенным для выполнения визуально ярких интерактивных операций, требующих высокой вычислительной производительности.
Если вернуться в конец 90-х и окунуться в мир операционных систем того времени, то вряд ли у кого возникнет сомнение в безраздельном царствовании Unix-совместимых систем. На стороне Unix все — семейство этих операционных систем изучают в университетах, для него созданы сотни тысяч приложений, оно успешно применяется в различных отраслях экономики, о нем написано море книг и документации. Правда, нельзя приобрести именно Unix, а можно купить IBM AIX, BSD, HP-UX, Sun Solaris и т.д. При этом требуются дополнительные усилия для того, чтобы программа, созданная, скажем, для AIX, заработала под Solaris. Различные клоны Unix оказались слабо совместимы. Аналогичные проблемы имеются сегодня и для ОС Linux.
Доминирующая архитектура современных суперкомпьютерных систем - это кластеры с большим числом узлов. Популярные еще совсем недавно массово-параллельные системы с физически и логически распределенной оперативной памятью на базе универсальных микропроцессоров в рейтинге TOP500 представлены лишь продукцией IBM и Cray, да еще рядом уникальных экземпляров, не имеющих доступных на рынке аналогов. Особое место в последнем, июньском списке крупнейших суперкомпьютеров мира занимает IBM Blue Gene/L. Прежде всего, абсолютным лидером рейтинга TOP500 с производительностью 281 TFLOPS на тестах Linpack является инсталляция BG/L в Ливерморской национальной лаборатории США.
Современные предприятия все больше интересуют функционально полные компьютерные системы, комплексно решающие конкретные задачи. Однако сложность таких систем, наличие многочисленных взаимосвязей, большое количество лицензий и серверов при их небольшой загрузке порождают
Микропроцессоры архитектуры x86 и компьютерные системы на их базе продолжают вытеснять с рынка всех конкурентов. Став 64-разрядными, эти процессоры лишили альтернативы из лагеря RISC (и пост-RISC) главного козыря. Новыми лидерами по многим техническим параметрам стали представленные нынешним летом процессоры Intel с микроархитектурой Core. Учитывая относительную дешевизну всей аппаратной инфраструктуры компьютерных систем на платформе х86, нетрудно предположить дальнейшее увеличение доли х86 на рынке.
Для ускорения работы с данными в микропроцессорах десятилетиями используется многоуровневое кэширование, а в корпоративных информационных системах для улучшения условий масштабирования — программное обеспечение промежуточного слоя. И вот совсем недавно возникла идея перенести эти продуктивные решения на работу с корпоративными данными. Новый подход, совмещающий кэширование данных с промежуточным слоем представления тех же данных, получил название Enterprise Data Fabric. В перспективе этот подход может способствовать более быстрому принятию идей SOA и grid.
Экономический рост в стране, активизация конкуренции во многих сегментах рынка, ужесточение требований контролирующих органов заставляют предприятия уделять все больше внимания корпоративным ИТ-системам вообще и системам хранения в частности. Одновременно со взрывным ростом объемов данных наблюдается повышение значимости информации, потеря которой может нанести непоправимый урон бизнесу компании. Как следствие этого, отечественные компании все более продуманно подходят к выбору архитектур и конкретных продуктов для систем хранения. Компании, работающие сегодня на поприще систем хранения (EMC, HDS, HP, IBM, NetApp и др.) различаются не только составом линейки продуктов, но и своими историческими корнями, определяющими в конечном итоге базовую архитектуру и состав этой линейки.