Платформы

И не толстый, и не тонкий

Долгое время в?сфере внимания ИТ-специалистов оставались клиентские решения, расположенные в?зоне полюсов по оси «толстый клиент- тонкий клиент». Однако и?компромиссная средняя часть может оказаться не менее, если не более перспективной.

Кластеры для ядерщиков

Вопросы построения вычислительных кластеров сегодня активно обсуждаются в?ИТ-сообществе в?целом и?каждой предметной области в?частности. Например, для обсуждения проблем создания и?эксплуатации вычислительной инфраструктуры в ходе проведения экспериментов по физике высоких энергий регулярно проходят совещания HEPiX, анализ материалов которых позволяет понять текущее состояние дел в?этой области.

Penryn: особенности архитектуры и технологии производства

Ничем не примечательное калифорнийское местечко Penryn, что располагается километрах в сорока к северо-востоку от Сакраменто, своей нынешней популярностью обязано корпорации Intel. Еще не так давно об этом названии знали в основном лишь местные жители, а сегодня Penryn на слуху у всей ИТ-индустрии.

Power6 - итог сорокалетней эволюции

Инженерия - это сочетание научных знаний со знаниями, накопленными эмпирическим путем. Справедливость этого утверждения доказывает пример микропроцессора Power6, анонсированного 21 мая 2007 года. Процессоры, подобные ему, воплощают в себе сплав из новейших изобретений с гигантским опытом разработчиков, аккумулированным ими на протяжении десятилетий

Освоение Web 3.0

В статье, опубликованной в New York Times в ноябре 2006 года, репортер Джон Маркофф заявил: «Коммерческий интерес к Web 3.0 или к Semantic Web, начинает возникать только теперь» [1]. Это заявление вызвало большое замешательство по поводу отношений между Semantic Web и Паутиной как таковой, а также между Semantic Web и некоторыми аспектами концепции, известной под названием Web 2.0. Некоторые эксперты отвергали термин «Web 3.0» как чрезмерно ориентированный на бизнес; другие подозревали, что изложенные в статье концепции являются лишь частью более широкого представления о Semantic Web, а третьи чувствовали, что как ни назови, а проникновение Semantic Web в бизнес-раздел New York Times означает достижение определенной зрелости. Стандартизация Resource Description Framework (RDF) и Web Ontology Language (OWL), языков, лежащих в основе Semantic Web, и вызревание новых технологий до встраивания семантики в существующие Web-страницы и до запросов RDF к хранилищам знаний показывают, что в этой области явно происходит что-то безумно интересное.

Аппаратно-программные хранилища

В условиях, когда вся совокупность сведений о компании представлена в данных, их хранилища становятся едва ли не главным ее стратегическим активом: для поддержки и анализа результатов деятельности необходимо, чтобы оперативно было доступно все больше информации. Системы, построенные на основе универсальных технологий, оказываются перед этим вызовом, слишком жесткими и дорогостоящими, поэтому появление специализированных аппаратно-программных решений, которые предлагают как начинающие компании, так и лидеры рынка, указывает на зарождение новой архитектуры платформ хранилищ данных.

От Niagara к Rock

Начиная разработку процессора Niagara, инженеры Sun Microsystems исходили из следующего предположения: «При конструировании современных процессоров практически все делается неправильно, а единственно верным решением станет возврат к простым идеям ранней микропроцессорной эры». Эволюция никогда не идет по одному, магистральному, пути - организмам приходится адаптироваться к разным условиям, причем иногда оказывается, что более «примитивный» и менее требовательный предшественник лучше приспособлен к агрессивной среде, нежели его развитый потомок. Точно так же и в эволюции процессоров иногда наблюдается возврат к идеям, которые, казалось бы, давно уже принадлежат прошлому.

Многоядерные процессоры и грядущая параллельная революция

На протяжении длительного времени прогресс в области микропроцессоров фактически отождествлялся со значением тактовой частоты. В 2001 году в корпоративных планах производителей микропроцессоров значилось, что уже к концу десятилетия будет преодолен барьер 10 ГГц. Увы, планы эти оказались неверны. Прав же оказался тот, кто сделал ставку на многоядерные архитектуры.

Транзакционная память - первые шаги

Память современных компьютеров в принципе отличается от легендарных ферритовых колечек только своей емкостью и быстродействием: она последовательна по своей природе. С появлением многоядерных процессоров возникает необходимость в альтернативных решениях. Возможно, таким решением станет транзакционная память.

Спирали аппаратной виртуализации

Одно время бытовало мнение, что поддержка различных операционных систем на одной физической машине нужна лишь для мэйнфреймов, однако усложнение массово применяемых платформ и рост их производительности возродили интерес к аппаратной поддержке виртуализации, причем уже не только для серверов, но и для клиентских компьютеров и встраиваемых систем, что, в свою очередь, потребовало пересмотра архитектуры серийных микропроцессоров.

Двигатель программной революции

В феврале 2001 года семнадцать представителей нетрадиционных направлений программной инженерии сформулировали основные принципы «скорой» (agile) разработки в документе под названием Agile Manifesto. Среди авторов манифеста был Джеф Сазерленд — создатель самой первой agile-методологии Scrum.

Специализированные виртуальные устройства

От обычных виртуальных машин осталось сделать всего один шаг к специализированным виртуальным устройствам, а дальше открывается возможность создания сетей на их основе и, может быть, пересмотр подходов к архитектурам информационных систем.

Снижение энергопотребления ИТ-инфраструктур

Количество электроэнергии, которая потребляется компьютерными инфраструктурами, в том числе персональными компьютерами, серверами, центрами обработки данных, маршрутизаторами и коммутаторами, стремительно растет. Ситуация осложняется тем, что высокопроизводительные системы в процессе работы выделяют все больше тепла. Для борьбы с этим производители встраивают в оборудование системы охлаждения, работа которых опять-таки требует все больше электроэнергии. Самые большие вычислительные комплексы, такие как центры обработки данных, теперь потребляют больше энергии, чем некоторые крупные заводы. Например, пять крупнейших поисковых компаний в настоящее время используют около 2 млн. серверов, которые, по словам вице-президента Ask.com Дэйна Сэмпсона, потребляют примерно 2,4 ГВт электроэнергии, что сравнимо с мощностью в 2 ГВт, генерируемой гидроэлектростанцией Hoover Dam. Все это стало поводом для начала строительства компаниями, подобными Ask.com, Google, Microsoft и Yahoo, собственных небольших гидростанций на реках американского Северо-Запада, где они могут получить относительно недорогую электроэнергию.

Графические процессоры - не только для графики

Сегодня графические процессоры из устройств с традиционным фиксированным набором функций конвейера трехмерной графики постепенно превращаются в гибкий вычислительный механизм общего назначения. В начале 90-х годов повсеместная доступность интерактивной трехмерной графики казалось чем-то из области фантастики. Однако уже к концу десятилетия почти все новые компьютеры оснащались графическим процессором (Graphics Processing Unit, GPU), предназначенным для выполнения визуально ярких интерактивных операций, требующих высокой вычислительной производительности.

Проблемы совместимости Linux-систем

Если вернуться в конец 90-х и окунуться в мир операционных систем того времени, то вряд ли у кого возникнет сомнение в безраздельном царствовании Unix-совместимых систем. На стороне Unix все — семейство этих операционных систем изучают в университетах, для него созданы сотни тысяч приложений, оно успешно применяется в различных отраслях экономики, о нем написано море книг и документации. Правда, нельзя приобрести именно Unix, а можно купить IBM AIX, BSD, HP-UX, Sun Solaris и т.д. При этом требуются дополнительные усилия для того, чтобы программа, созданная, скажем, для AIX, заработала под Solaris. Различные клоны Unix оказались слабо совместимы. Аналогичные проблемы имеются сегодня и для ОС Linux.

«Голубой ген» Голубого Гиганта

Доминирующая архитектура современных суперкомпьютерных систем - это кластеры с большим числом узлов. Популярные еще совсем недавно массово-параллельные системы с физически и логически распределенной оперативной памятью на базе универсальных микропроцессоров в рейтинге TOP500 представлены лишь продукцией IBM и Cray, да еще рядом уникальных экземпляров, не имеющих доступных на рынке аналогов. Особое место в последнем, июньском списке крупнейших суперкомпьютеров мира занимает IBM Blue Gene/L. Прежде всего, абсолютным лидером рейтинга TOP500 с производительностью 281 TFLOPS на тестах Linpack является инсталляция BG/L в Ливерморской национальной лаборатории США.

PAN или пропал

Современные предприятия все больше интересуют функционально полные компьютерные системы, комплексно решающие конкретные задачи. Однако сложность таких систем, наличие многочисленных взаимосвязей, большое количество лицензий и серверов при их небольшой загрузке порождают

Эволюция микроархитектуры x86-процессоров Intel

Микропроцессоры архитектуры x86 и компьютерные системы на их базе продолжают вытеснять с рынка всех конкурентов. Став 64-разрядными, эти процессоры лишили альтернативы из лагеря RISC (и пост-RISC) главного козыря. Новыми лидерами по многим техническим параметрам стали представленные нынешним летом процессоры Intel с микроархитектурой Core. Учитывая относительную дешевизну всей аппаратной инфраструктуры компьютерных систем на платформе х86, нетрудно предположить дальнейшее увеличение доли х86 на рынке.

EDF — корпоративная кэш-память

Для ускорения работы с данными в микропроцессорах десятилетиями используется многоуровневое кэширование, а в корпоративных информационных системах для улучшения условий масштабирования — программное обеспечение промежуточного слоя. И вот совсем недавно возникла идея перенести эти продуктивные решения на работу с корпоративными данными. Новый подход, совмещающий кэширование данных с промежуточным слоем представления тех же данных, получил название Enterprise Data Fabric. В перспективе этот подход может способствовать более быстрому принятию идей SOA и grid.

Системы хранения для растущих компаний

Экономический рост в стране, активизация конкуренции во многих сегментах рынка, ужесточение требований контролирующих органов заставляют предприятия уделять все больше внимания корпоративным ИТ-системам вообще и системам хранения в частности. Одновременно со взрывным ростом объемов данных наблюдается повышение значимости информации, потеря которой может нанести непоправимый урон бизнесу компании. Как следствие этого, отечественные компании все более продуманно подходят к выбору архитектур и конкретных продуктов для систем хранения. Компании, работающие сегодня на поприще систем хранения (EMC, HDS, HP, IBM, NetApp и др.) различаются не только составом линейки продуктов, но и своими историческими корнями, определяющими в конечном итоге базовую архитектуру и состав этой линейки.

Как «приготовить» Data Quality

Качество данных становится востребованной темой в российских компаниях. Эксперт направления Data Governance «КОРУС Консалтинг» Мария Русина рассказывает о том, как добиться качественных данных.