«Мы можем изучать в процессе наблюдения лишь 5% всех явлений, известных ученым. ‘Невидимым’ остается то, что физики называют темной материей и темной энергией. Благодаря адронному коллайдеру ученые смогут получить огромный массив первичных данных о об этой материи и этой энергии. Однако информацию необходимо анализировать с помощью высокопроизводительных компьютерных систем, и она теперь у нас имеется. Без этого оборудования исследования не имеют никакого смысла», — уверен Григорий Феофилов, заведующий лабораторией физики сверхвысоких энергий физического факультета СПбГУ, которая с 2002 года имеет статус вычислительного центра CERN.
По словам Латчезара Бетева, координатора проекта AliCE Grid, во всем мире 70 таких центров. Из них 45 уже задействованы и работают круглосуточно. Однако основной поток информации пойдет, когда начнется полноценное использование коллайдера. Его официальный запуск запланирован на октябрь 2009 года, но Феофилов предполагает, что еще несколько месяцев после запуска уйдет на отладку сложнейшего оборудования. А потому вычислительные мощности лаборатории университета будут загружены на 100%, вероятно, лишь в 2010 году.
Ожидается, что в первый год стабильной работы коллайдера будет получен 1 Пбайт данных. Затем каждый год информационный поток будет увеличиваться вдвое.
Система хранения и обработки данных имеет три уровня. В первую очередь все получаемые данные сохраняются на ресурсах CERN (нулевой уровень). Потом они передаются в национальные системы (первый уровень). Таким образом обеспечивается резервное хранение получаемой информации. Второй уровень — это распределенные по миру grid-системы, в которых осуществляется обработка и анализ данных. Каждая такая система получает какую-то часть от всего массива информации; в России она объединяет вычислительные мощности 12 академических и учебных институтов.
Среди этих организаций СПбГУ находится далеко не на первом месте по имеющимся вычислительным мощностям, однако он имеет длительную историю сотрудничества с CERN. В мегапроекте ALiCE физический факультет СПбГУ принимает участие с 1992 года по трем направлениям: эксперимент, обработка данных, теория и программа физических исследований. Петербургские ученые вовлечены в поиск кварк-глюонной плазмы и изучение возможностей адронной терапии.
Полученный вычислительный комплекс предполагается использовать также для исследовательской работы, не связанной напрямую с участием в проектах CERN. Вполне возможно, что появятся новые направления и новые задачи. Тем более что для исследователей будет открыт доступ к огромному массиву первичных данных, формируемых в результате экспериментов на Большом адронном коллайдере.
В связи с этим Феофилов полагает, что имеющихся у физического факультета вычислительных мощностей скоро будет не хватать, поскольку расширяющиеся возможности обработки данных и анализа должны привести к формированию новых задач, а те в свою очередь потребуют еще более высокопроизводительных вычислений.
Кроме того, есть идея создать на базе СПбГУ национальную систему для резервного хранения всех данных, формируемых в результате экспериментов на Большом адронном коллайдере. Потребуется серьезное дооснащение вычислительного комплекса физического факультета.
Сейчас вычислительный комплекс представляет собой счетный кластер и учебный класс на 20 мест. Кластер состоит из семи серверов Sun Fire X4150 на базе четырехъядерных процессоров Intel Xeon E5440, дискового массива Sun StorageTek 2540 и гигабитного коммутатора Cisco Catalyst 4948. На серверах установлена OpenSolaris SXCE, позволяющая использовать операционные системы, совместимые с приложениями CERN, в среде виртуального гипервизора Xen.
В учебном классе установлены рабочие станции Sun Ultra 24 с процессорами Intel Core2 Quad Q6700. Рабочие станции функционируют под управлением Sun Solaris 10 с возможностью использования других операционных систем в виртуальной среде VirtualBox. Учебный класс предназначен для обучения студентов на кафедрах физического факультета и подготовки специалистов, которые смогут участвовать в проектах CERN.
Новый комплекс позволил увеличить вычислительные мощности физического факультета примерно вдвое. По словам Роберта Порраса, вице-президента подразделения Sun Solaris Data, Availability, Scalability & HPC, стоимость переданного оборудования составляет около 150 тыс. долл.