Компания Convex является сегодня одним из ведущих поставщиков высокопроизводительных вычислительных систем. Минисуперкомпьютеры основанной в 1982 году компании завоевали широкую известность в промышленных и исследовательских организациях. Высокая производительность и неплохое соотношение стоимость/производительность позволили компании занять прочные позиции в зтом секторе рынка а в конце 80-х - начале 90-x годов Convex рассматривалась аналитиками даже как основной конкурент другой известной суперкомпьютерной фирмы - Cray Research Inc. Компьютеры Convex нашли применение во всех сферах деятельности современного компьютерного сообщества: в науке и технике, в военных областях, банковском деле, а также в областях, связанных с охраной окружающей Среды.
Размерность задач и объемы информации, требующие эффективных способов решения и высокоскоростной обработки, постоянно увеличиваются. Недостаточная производительность современных машин является фактором, сдерживающим развитие многих научных и прикладных исследований. Сегодня одним из важнейших свойств компьютерной системы считается ее масштабируемость, которая охватывает не только возможность наращивания числа и мощности процессоров, объемов оперативной и внешней памяти, других ресурсов системы и способов их объединения, обеспечиваемых архитектурой и конструкцией компьютера, но определяется и соответствующими программными средствами.
Следует отметить, что стремительный рост производительности микропроцессоров и построенных на их основе недорогих персональных компьютеров, рабочих станций и многопроцессорных серверов, а также бурное развитие ПО для систем этого класса вполне закономерно создали тенденцию миграции части пользователей, ранее использовавших суперкомпьютеры и мэйнфреймы. Эта тенденция получила название разукрупнение (downsizing). Тем не менее существуют крупномасштабные задачи для решения которых необходима адекватная аппаратная и программная поддержка. Сегодня учитывая растущие возможности современных настольных компьютеров, пользователи масштабируемых систем помимо обеспечения высокой абсолютной производительности, совершенно естественно предъявляют новые требования к таким характеристикам, как отношение стоимость/производительность, совместимость с настольными системами и возможность применения знакомых моделей программирования.
Одной из тенденций современного этапа развития является признание многими компьютерными компаниями необходимости формирования партнерских отношений. Это определяется прежде всего резким усложнением технологий, сокращением цикла разработки и поставки новых изделий на рынок, а также необходимостью снижения стоимости. Одним из примеров такого сотрудничества может служить соглашение между компаниями Convex и Hewlett-Packard, которое было заключено в 1992 году. Ключевыми пунктами этого соглашения были:
Рассмотрим некоторые особенности одного из новых семейств вычислительных систем Exemplar компании Convex [1-3], которое представляет собой ряд совместимых многоцелевых масштабируемых компьютеров для широкого класса прикладных систем; эти компьютеры построены с использованием собственных технологий Convex, а также технологий компании Hewlett-Packard.
Архитектура SPP1200
Основной целью разработки системы SPP1200 было создание средств масштабируемой параллельной обработки при поддержке одной из известных моделей программирования. Эта модель программирования позволяет разработчику, компиляторам и приложениям рассматривать систему как объединение нескольких процессоров и нескольких широкополосных портов ввода/вывода, разделяющих доступ к большой общей физической памяти. Логически система представляет собой MIMD-архитектуру с общей памятью, доступ к которой разделяется между несколькими (от 2 до 128) процессорами.
Ниже уровня этого внешнего представления находятся достаточно сложные аппаратные и программные средства, которые управляют подсистемой глобальной общей памяти (GSM - globally shared memory). Реализация GSM является главным средством обеспечения масштабируемости системы распределенной памяти. Кроме того эта подсистема автоматически управляет механизмами поддержки когерентности данных в системе, освобождая разработчиков от утомительной рутинной работы по ручному поддержанию когерентности. Подсистема GSM динамически распределяет данные в системе памяти, что увеличивает производительность приложений благодаря снижению системного трафика и устранению чрезмерного перемещения данных.
Организации системы
Архитектура SPP1200 базируется на процессорах РА-7200 компании Hewlett-Packard. Очень важной частью системы является уникальная иерархическая подсистема памяти, которая обеспечивает эффективный доступ любого процессора к любой ячейке памяти.
SPP1200 поддерживает двухуровневую иерархию памяти, каждый уровень которой оптимизирован для определенного класса разделения данных. Первый уровень, гиперузел (hypernode), строится на базе традиционного матричного переключателя памяти, объединяющего до восьми процессоров, разделяющих доступ к общей физической памяти. Гиперузел представляет собой симметричный мультипроцессор (SMP) со своими собственными ЦП, подсистемами памяти и ввода/вывода. Использование матричного переключателя на первом уровне объединения памяти гарантирует процессорам и подсистеме ввода/вывода одновременный, неблокируемый доступ к памяти. Этим достигается уровень масштабируемости, который трудно реализовать в системах, базирующихся на обычной технологии шины.
Второй уровень подсистемы памяти представляет собой высокопроизводительную сеть обмена, объединяющую гиперузлы между собой. Эта сеть, называемая когерентной тороидальной сетью обмена (CTI - cocherent toroidal interconnect), реализована в виде четырехканального кольца. Наличие четырех каналов, работающих в режиме расслоения, с одной стороны, обеспечивает существенное расширение полосы пропускания сети обмена, а с другой - является средством увеличения ее устойчивости к отказам.
По мнению разработчиков, такое построение иерархической подсистемы памяти оптимально по нескольким причинам:
1) Общая память гиперузла с малой задержкой доступа может эффективно поддерживать мелкозернистый параллелизм приложений, тем самым увеличивая общую производительность системы. Для того чтобы использовать этот уровень параллелизма приложений, часто бывает достаточно просто перекомпилировать программу с помощью одного из автоматически распараллеливающих компиляторов.
2) Двухуровневая организация памяти (с двумя разными задержками доступа), возможно, станет общепринятой моделью для построения будущих систем: когда полупроводниковые приборы станут более компактными, несколько процессоров, вероятно, смогут размещаться на единой подложке. Таким образом, первым уровнем иерархии станут несколько процессоров, разделяющих общую память. Второй уровень иерархии памяти будет размещаться вне кристалла, возможно, в непосредственной близости с микропроцессорным кристаллом.
3) Такая организация системы является естественным обобщением архитектур, традиционно применяемых при создании кластеров рабочих станций, систем с массовым параллелизмом (MPP) и симметричных многопроцессорных систем (SMP). Процессоры внутри гиперузла образуют тесно связанную архитектуру для поддержки мелкозернистого параллелизма. На уровне гиперузлов может быть реализован крупнозернистый параллелизм со связью через разделяемую память и/или с помощью явных механизмов передачи сообщений.
Структура гиперузла
Каждый гиперузел содержит свой соответственный матричный переключатель размерностью 5х5. Подобные переключатели традиционно применяются в подсистемах памяти суперкомпьютеров. Матричный переключатель обеспечивает малую задержку, а также широкополосный, неблокируемый доступ центральных процессоров и каналов ввода/вывода к локальной памяти данного гиперузла. В системе SPP1200 этот переключатель реализован на основе арсенид-галлиевых (GaAs) вентильных матриц с высокой степенью интеграции. Технология арсенид-галлиевых схем достаточно хорошо испытана в более ранних моделях компьютеров компании ConveX и обеспечивает высокую производительность при достаточно скромных требованиях к питанию и системе охлаждения.
Использование матричного переключателя позволяет избежать падения производительности при обмене данными, характерного для систем, в которых для обработки трафика центральных процессоров и ввода/вывода применяется системная шина.
Объем динамической памяти, физически распределенной по четырем платам каждого гиперузла, в зависимости от емкости применяемых микросхем может составлять 128, 256, 512, 1024 или 2048 Мбайт. На каждой плате имеются два банка памяти. Каждый может передавать 64-байтную строку кэш-памяти (восемь двойных слов) за восемь тактов (плюс время разгона, которое зависит от местоположения источника запроса).
Следует отметить, что SPP1200 обеспечивает аппаратную поддержку доступа к глобальной общей памяти - памяти всех гиперузлов системы, тогда как системы без подобных свойств могут только эмулировать общую память посредством пересылки страниц из одного узла в другой под управлением программных средств. В системах SPP1200 строки кэшпамяти могут автоматически копироваться в разные гиперузлы и кэшироваться в них без вмешательства программных средств, что дает существенное снижение накладных расходов для программ, использующих общую память.
Организация сети обмена
Высокоскоростная сеть обмена CTI соединяет между собой несколько гиперузлов. CTI построена на базе стандарта IEEE 1596-1992 на масштабируемый когерентный интерфейс (SCI - Scalable Coherency Interface). Эта сеть обмена сочетает широкую полосу пропускания с малой задержкой, обеспечивая когерентный доступ к общей памяти всей системы. Приложения, ориентированные на явный механизм передачи сообщений (ЕМР - Explicit Message Passing), также могут использовать CTI для обмена между гиперузлами.
CTI состоит из четырех однонаправленных колец, подключенных к каждому гиперузлу. Эти четыре кольца используются для обеспечения более высокой полосы пропускания сети обмена, малой задержки передачи данных между гиперузлами и большей избыточности на случай отказа одного из колец.
Последовательные обращения к глобальной памяти (при линейном возрастании физического адреса) выполняются в режиме расслоения по четырем кольцам сети обмена. При этом каждому кольцу соответствует одна из четырех плат памяти гиперузла. Но поскольку единицами обмена и расслоения самой памяти являются 64-байтные строки кэш-памяти, расслоение по четырем каналам сети CTI также реализуется на этой основе. Подобный принцип расслоения позволяет сбалансировать трафик по всем четырем кольцам. Для обращений одного из процессоров к глобальной памяти, находящейся в том же самом гиперузле, используется матричный переключатель гиперузла, что обеспечивает доступ к данным на полной полосе пропускания памяти.
Кэш-намять CFI
Для минимизации задержки доступа к глобальной памяти по сети обмена CTI каждый гиперузел содержит специальную кэш-память, хранящую данные, полученные по сети обмена из других гиперузлов. Эта кэш-память называется кэшем CTI. Реализованный механизм гарантирует, что любые данные, которые были пересланы в кэш-память ЦП данного гиперузла и хранятся в этой в кэш-памяти, находятся также в кэше CTI. Поэтому справочная информация кэша CTI может использоваться для определения местоположения глобальных данных, которые в текущий момент времени кэшированы данным гиперузлом. Кэш CTI физически индексируется и тэгируется посредством глобального физического адреса.
SPP1200 гарантирует поддержку когерентного состояния кэш-памяти между несколькими гиперузлами. Два или более гиперузла, использующих один и тот же глобальный адрес памяти, будут иметь согласованное представление данных. Это реализуется с помощью механизма связанного списка разделяемых данных, содержащего перечень гиперузлов, разделяющих доступ к каждой строке кэш-памяти, или информацию о гиперузле, который содержит данную строку кэш-памяти на правах исключительного владения. Система хранит полную информацию о том, в каких процессорах находятся кэшированные данные, соответствующие каждой строке кэш-памяти CTI, так что запросы когерентности по сети обмена могут быть направлены непосредственно соответствующим ЦП.
Таким образом, когерентность кэш-памяти всей системы поддерживается аппаратурой семейства Exemplar прозрачным способом, без вмешательства операционной системы или других видимых пользователю программных средств.
Подсистема ввода/вывода
Подсистема ввода/вывода SPP1200 обладает свойством масштабируемости и может быть распределена по гиперузлам системы. В каждом гиперузле системы имеется неблокируемый порт ввод/вывод-память с пропускной способностью 250 Мбайт/с. Каждый интеллектуальный порт ввода/вывода реализует прямой доступ к памяти (DMA - Direct Memory Access) и способен обеспечивать обмен данными непосредственно с распределенными устройствами физической памяти системы. Этот механизм позволяет реализовать обмен данными без участия процессоров, освобождая их для решения пользовательских задач. Такой механизм обеспечивает также пересылки данных в потоковом режиме, который полезен для обмена большими дисковыми блоками информации и для поддержки высокоскоростных сетевых соединений.
Подсистема ввода/вывода может быть физически распределена между любыми или всеми гиперузлами системы. Через матричный переключатель и сеть обмена периферийные устройства имеют доступ к любому устройству памяти системы. Аналогично, любой процессор может обращаться к любой файловой системе, смонтированной в любом гиперузле. Для пересылки пакетов управления и данных в соответствующие периферийные устройства используются сеть обмена системы и неблокируемые матричные переключатели. При этом неважно, где реально находятся эти периферийные устройства. В полностью сконфигурированной системе общая пропускная способность ввода/вывода по всем гиперузлам в режиме прямого доступа к памяти составляет 4 Гбайт/с.
Подсистема периферийных устройств
Работа периферийных устройств SPP1200 реализована на базе промышленных стандартов IEEE 1496 на главные адаптеры шины SBUS. Поддерживаемая периферия включает SCSI-2 диски, работающие в режиме fast-and-wide, а также накопители на магнитной ленте DAT и 3490.
Дисковая подсистема SPP1200 представляет собой надежную массовую память, реализованную в виде массивов стандартных дисков размером 3.5. Для заказчиков, предъявляющих повышенные требования к объему дисковой памяти, может быть сконфигурирована система, поддерживающая несколько терабайт дискового пространства. Для увеличения производительности пересылки данных диски могут работать в режиме расслоения. Подобное расслоение (RAID уровня 0) реализуется с помощью дискового драйвера и тем самым прозрачно для пользователя.
Сетевые средства
SPP1200 поддерживает сетевой стандарт FDDI (Fiber Distributed Data Interface), имеющий теоретическую пиковую скорость передачи 100 Мбит/с. Расстояние между узлами сети может увеличиваться до 2 км., а число соединений может составлять 500 при общей протяженности 100 км. Волоконно-оптический контроллер, разработанный компанией Convex для одиночного подключения к сети FDDI, использует стандартный интерфейс SBUS.
Базовые конструкции
Семейство SPP1200 выпускается в двух конструктивных исполнениях: SPP1200/CD и SPP1200/XA, предполагающих автономное воздушное охлаждение.
Системы ХА (eXtended Architecture) выполнены в виде стойки и могут включать от 8 до 128 процессоров, 32 Гбайт оперативной памяти и обеспечивать пропускную способность ввода/вывода 4 Гбайт/с. Стойки /ХА оснащены программируемой подсистемой оптического отображения состояния системы. Дополнительные стойки, появляющиеся по мере развития системы, соединяются между собой с помощью кабелей сети обмена CTI. Имеются две возможные конфигурации этих стоек: в состав каждой могут входить два гиперузла (16 процессоров), одно шасси устройств ввода/вывода (20 дисковых накопителей и два накопителя на магнитной ленте DAT), или один гиперузел (8 процессоров) и до 80 дисковых накопителей. Никаких специальных фальш-полов не требуется.
Компьютеры CD (Compact Design) представляют собой системы начального уровня, имеют конструкцию напольных тумб и могут включать от 2 до 16 процессоров, до 4 Гбайт оперативной памяти и обеспечивать пропускную способность ввода/вывода 500 Мбайт/с. В одной тумбе размещается до 8 процессоров.
Разработка приложений
Главная задача среды программирования SPP1200 - обеспечение эффективных средств создания приложений. Поставляемые инструменты разработки разработаны с учетом возможности автоматического распараллеливания даже старых наследуемых кодов (legacy codes), что, в частности, относится и к пыльным колодам перфокарт с фортрановскими программами. Однако набор инструментальных средств дает также возможность программисту взять на себя управление машиной для использования всех преимуществ ее архитектуры.
Для облегчения процесса переноса существующих и создания новых приложений система поддерживает известные парадигмы разработки на базе общей памяти и явной передачи сообщений. При этом используется единая модель программирования, поддерживающая оба указанных стиля, которые в случае необходимости могут комбинироваться.
Модель программирования для SPP1200 включает широкий список возможностей для поддержки базовой архитектуры. Программные средства полностью автоматического распараллеливания вычислений в сочетании с аппаратными средствами динамического распределения данных позволяют практически немедленно ощутить преимущества предлагаемой архитектуры для существующих программ, написанных на языках Си и Фортран в расчете на реализацию общей памяти. Средства передачи сообщений широкоизвестной библиотеки программ PVM (Parallel Virtual Machine) обеспечивают поддержку существующих программ, написанных в этом стиле. В распоряжении программистов имеются средства управления явными параллельными потоками (нитями), явной синхронизацией и явным распределением данных.
Операционная система
Масштабируемая микроядерная операционная система SPP-UX разработана специально для обеспечения высокой производительности широкого ряда приложений в среде SPP. Это могут быть обычные однопотоковые двоичные выполняемые файлы ОС HP-UX, умеренно параллельные приложения, совместимые с серией "С" компьютеров Convex, или высокопараллельные приложения. Для увеличения производительности все указанные приложения могут использовать общую память и/или распараллеливание на основе механизма передачи сообщений.
Новая архитектура серии SPP1200 требовала и свежего подхода к реализации UNIX. В основе ОС SPP-UX лежит распределенное микроядро Mach З.х, расширенное средствами поддержки уникальных свойств систем Exemplar.
В каждом гиперузле системы выполняется свое микроядро SPP-UX, реализующее только фундаментальные функции ядра системы: управление виртуальной памятью и планирование процессоров. Большая часть системы организована в виде серверных задач и защищенных модулей, которые работают в пространстве пользователя. Эти компоненты обеспечивают выполнение стандартных функций, характерных для любой полной операционной системы: управление файловой системой и устройствами, а также сетевые сервисы. Микроядро и серверы взаимодействуют посредством низкоуровнего механизма передачи сообщений, прямо поддерживаемого аппаратурой Exemplar.
Принятый при организации ОС SPP-UX подход имеет несколько преимуществ:
- Масштабируемость. Компоненты операционной системы распределены и реплицированы внутри машины. Это позволяет операционной системе по мере увеличения требований к конфигурации масштабироваться, избегая появления общего узкого горла, ограничивающего производительность.
- Модульность. При распределении функций операционной системы по отдельным модулям в нее легко добавлять новые свойства или прикладные среды, а также проводить поэтапную доводку с целью улучшения производительности.
- Производительность. Использование множества серверов позволяет легко масштабировать производительность системы. Например, создание файлового сервера в каждом гиперузле системы позволяет реализовать параллельные операции ввода/вывода.
С целью удовлетворения потребностей центров обработки данных и систем масштаба предприятия Convex расширила ОС UNIX некоторыми специальными свойствами. Эти свойства включают средства планирования заданий, механизм контрольных точек/рестарта, высокопроизводительную файловую систему, которая поддерживает файлы и файловые системы размером в несколько терабайт, а также средства управления подкомплексами, представляющими собой мощную и гибкую возможность разделения ресурсов системы.
Среда программирования
Программисту, желающему для увеличения производительности приложения использовать параллелизм общей памяти, достаточно перекомпилировать программу с помощью одного из автоматически распараллеливающих компиляторов. Это лучше всего подходит для переноса существующих последовательных программ или параллельных программ, написанных в расчете на общую память, а также для разработки новых программ в стиле разделения памяти.
Если в качестве условий компиляции указывается необходимость использования дополнительных возможностей распараллеливания, компиляторы SPP1200 будут автоматически распараллеливать разного вида циклы, независимые по данным, а также выражения массивов Fortran 90. Распараллеливание достигается посредством распределения работы циклов между потоками выполнения, по одному на процессор в подкомплексе. Генерация кода выполняется таким образом, что процесс автоматически адаптируется к количеству доступных процессоров; пользователь не обязан передавать соответствующее значение в качестве параметра компилятору.
Когда откомпилированная для распараллеливания в общей памяти программа начинает выполняться, имеется только по одному потоку выполнения для каждого из доступных процессоров. Количество процессоров может быть определено пользователем или назначено библиотекой времени выполнения (run-time library) в момент вызова программы. В начале все потоки находятся в нерабочем состоянии за исключением потока 0, который выполняется автономно до тех пор, пока в нем не встретится параллельная конструкция. Тогда он посредством вызова процедур из библиотек компилятора времени выполнения активизирует все неработающие потоки в процессе. Если потоки в текущий момент времени не выполняются на процессоре, микроядро будет планировать их выполнение. В конце параллельной конструкции потоки синхронизируются барьером, и все потоки, за исключением нулевого, становятся неработающими.
Программа с явной передачей сообщений обычно представляет собой много однопотоковых процессов, каждый из которых выполняется на одном из процессоров подкомплекса. Процессы координируют свои взаимные операции и разделяют значения данных посредством явной передачи сообщений. Пользователь определяет связи значений данных между процессами, используя библиотеку передачи сообщений, например PVM. Внутри подкомплекса передача сообщений выполняется через общую память, распределенную между выполняющимися процессами. Для связи между подкомплексами и с другими машинами PVM использует традиционные программные сокеты UNIX. В качестве места назначения сообщения могут быть заданы определенные подкомплексы одной и той же системы SPP1200 или другой системы.
Программы с явной передачей сообщений, по существу, являются параллельными, и все процессы выполняются независимо, если только они явно не координируются посредством ожидания сообщений. В традиционно написанной программе с передачей сообщений все переменные являются частными ("приватными") для каждого процесса. Никакой процесс не может обращаться к переменным другого процесса. Синхронизация между процессами осуществляется явно посредством передачи сообщений.
В качестве базового средства передачи сообщений в системе SPP1200 используется библиотека PVM (Parallel Virtual Machine - параллельная виртуальная машина). Обращения к PVM могут выполняться как из программ, написанных на языке Си, так и из программ на Фортране. Библиотека PVM сама определит самый быстрый способ связи (общая память или программные гнезда), основываясь на информации о том, где выполняются взаимодействующие процессы.
Поддерживаются гибридные программы, так что передача сообщений может выполняться между несколькими многопотоковыми программами, использующими общую память. Это позволяет практически немедленно перенести на SPP1200 программы, которые были разработаны в расчете на явную передачу сообщений и написаны с использованием стандартной библиотеки, подобной PVM. Отдельные процессы с явной передачей сообщений сами по себе могут быть распараллелены.
Технология компиляторов
Система SPP1200 поддерживает популярные языки программирования и их расширения, включая FORTRAN 77, Fortran 90, Си и С++. Компиляторы позволяют пользователю переносить приложения с других платформ и разрабатывать новые, чтобы получить максимальные преимущества от использования архитектуры SPP1200. Задача компиляторов Convex заключается в увеличении общей эффективности системы при поддержке высокой продуктивности и переносимости приложений.
Компиляторы обеспечивают иерархию автоматических средств оптимизации программ. Самым низким уровнем оптимизации является уровень генерации кода. Задача здесь заключается в том, чтобы добиться насколько возможно большей скалярной производительности с помощью наиболее продвинутой методики оптимизации RISC-процессоров, включая методы планирования потока команд, программную конвейеризацию и "черепичное" распределение глобальных регистров. Дополнительное улучшение производительности процессора может быть получено с помощью метода блокирования цикла, обеспечивающего увеличение производительности кэш-памяти, а также посредством классических машинно-независимых методов оптимизации.
Следующий уровень производительности достигается при автоматическом распараллеливании циклов, независимых по данным. Обычно эта форма параллелизма приводит к созданию для определенного процесса такого количества параллельных потоков, какое разрешено в подкомплексе.
Компиляторы SPP1200 поддерживают директивы-программы, позволяющие пользователям явным образом управлять процессами распараллеливания и распределения данных. Так, специальная директива может использоваться для указания того, что определенный цикл должен выполняться только одним потоком на каждом гиперузле. Это применяется для распараллеливания внешнего цикла, в котором каждая итерация может порождать дополнительные потоки внутреннего цикла, обеспечивая несколько уровней распараллеливания.
Инструментальные средства разработки приложений
Convex уделяет особое внимание разработке инструментальных средств для облегчения разработки и переноса параллельных приложений. В частности, пакет CXtools представляет собой мощный набор инструментальных средств, который помогает программистам в отладке, тестировании и оптимизации высокопараллельных приложений. Этот высокопродуктивный набор инструментов включает три ориентированных на визуализацию продукта: CXdb - параллельный отладчик, СХра - параллельный анализатор производительности и CXtrace - анализатор трасс-параллельных потоков. Каждый из этих продуктов нацелен на разработку и настройку приложений, которые работают на масштабируемых параллельных
Сравнительные характеристики SPP1200 и SPP2000
|
PA-7200 |
PA-8000 |
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
||
|
|
|
Послесловие
В октябре 1995 года компания Convex объявила о своих планах развития и выпуска системы SPP2000, которая должна появиться в 1996 году. Ее главные особенности - новый процессор РА-8000, новая архитектура памяти и подсистемы ввода/вывода, а также новая версия ОС SPP-UX, обеспечивающая улучшенную масштабируемость. Основным компонентом системы остается гиперузел, включающий до 16 процессоров, 4 Гбайт высокоскоростной синхронной динамической памяти (SDRAM) и до 8 независимых каналов ввода/вывода на базе шины PCI. Улучшения сети обмена, реализующей связь гиперузлов в параллельной системе с общей памятью, нацелены на обеспечение более богатой топологии взаимных соединений, повышение пропускной способности и уменьшение задержек.
Увеличенная производительность процессора РА-8000 [4] будет обеспечена как за счет повышения тактовой частоты, так и за счет уменьшения среднего количества тактов, необходимых для выполнения команд. Основными особенностями процессора РА-8000 являются внеочередное выполнение команд, поддержка параллельной обработки обращений к кэшпамяти, а также большое количество параллельно работающих функциональных устройств, позволяющих выполнять до четырех команд в каждом такте. Ожидается, что производительность процессоров РА-8000 в системе SPP2000 будет составлять 360 единиц SPECint92 и 550 единиц SPECfp92.
Достижение баланса между вычислительными возможностями новых гиперузлов и возможностями подсистемы ввода/вывода потребовало соответствующего улучшения характеристик практически всех компонентов системы. Пропускная способность ввода/вывода увеличена в восемь раз, пропускная способность памяти - более чем в шесть раз, пропускная способность передачи данных между двумя гиперузлами - более чем в шесть раз, задержка передачи данных по сети обмена уменьшена почти в два раза.
Литература
[1] The Exemplar System, Convex Computer Corporation, 1995.
[2] Convex Exemplar SPP1200, Convex Computer Corporation, 1995.
[3] SPP2000 Advanced Notice, Convex Computer Corporation, 1995.
[4] М. Кузьминский. Процессор РА-8000. Открытые системы, #5, 1995.