Возможно, многие помнят демонстрацию из курса химии средней школы: добавление всего одной ложки катализатора приводило к мгновенному осветлению мутной жидкости в большом сосуде. Так сегодня зачастую происходит и в ИТ - незначительное с точки зрения технологий событие способно катализировать инициацию спящих до поры потенциальных возможностей индустрии. Например, говорят, что повышенный интерес ведущих ИТ-производителей из Кремниевой долины к проблеме энергосбережения центров обработки данных был вызван нежеланием местного губернатора выдать разрешение на строительство новых электростанций. Кроме экстенсивной реакции - инициации строительства станций в регионах с более благосклонным руководством - последовала еще и интенсивная: это событие послужило толчком к ренессансу технологий виртуализации.
Издательство «Теис» выпустило новую книгу профессора Владимира Липаева «Программная инженерия. Методологические основы» - учебное пособие по курсу «Программная инженерия» для студентов вузов, обучающихся по направлению «Бизнес-информатика».
Обзор февральского номера журнала Computer (Computer, IEEE Computer Society, Vol. 39, No. 2, February 2007) посвящен сетевой безопасности. В отличие от обычной структуры журнала, когда все статьи тематической подборки подаются под единой рубрикой, в этот раз статьи по теме безопасности разбросаны по нескольким разделам. Первая статья, озаглавленная «Проблемы обеспечения безопасности сетевых приложений J2ME» (Challenges in Securing Networked J2ME Application) и представлена Андре Клингсхеймом, Вебьерном Моемом и Кьелом Холе.
Эффективность использования серверов, особенно на платформе x86, чрезвычайно низка: общепризнанно, что она находится в пределах от 5 до 15%. Для сравнения, известно, что паровозы, ставшие символами низкого КПД, в среднем имели коэффициент, равный 8%. Виртуализация позволяет повысить этот показатель в несколько раз и при этом заметно поднять надежность, готовность, масштабируемость и другие характеристики, критически важные для центров обработки данных.
Приобретение в 2003 году компании Connectix позволило корпорации Microsoft расширить свой портфель предложений средствами для виртуализации. Новый импульс развития решения по виртуализации получат с выходом Windows Server Longhorn x64 Edition, когда будет выпущен новый монитор виртуальных машин.
Сегодня более 25% крупных предприятий уже внедрили у себя серверные виртуализационные решения, а еще 10% предприятий ведут пилотные проекты в этом направлении. Наряду с этим основные ИТ-компании интенсивно работают над решениями для виртуализации настольных систем, которые скоро найдут практическое применение. Очевидно, что «виртуализация» прикладного и системного ПО кардинально изменит подходы и методы обеспечения ИТ-безопасности, принципы лицензирования ПО и методы администрирования.
За последние три десятка лет сервисы стали крупнейшей частью экономики большинства развитых стран. Но до сих пор отсутствует общепринятое определение сервиса, трудно оценить его эффективность, качество и соответствие требованиям. Сервисы изучаются немногими исследователями, а обучению студентов в этой области уделяется незначительное внимание. Наука о сервисах и системах их предоставления могла бы сделать сферу услуг более инновационной. Широко принятого определения сервиса до сих пор не существует, и по-прежнему трудно измерить производительность, доступность и инновационность того или иного сервиса. Наряду с добывающей и производственной отраслями, экономика сервисов является одной из важнейших сфер национального хозяйства. Расширение сферы услуг частично вызвано специализацией и ростом популярности аутсорсинга (например, привлечение внешних специалистов в области дизайна, технического обслуживания, подбора персонала).
Вопросы совместимости различных Linux-систем уже не раз поднимались на страницах журнала (в частности, см. статью «Проблемы совместимости Linux-систем», «Открытые системы», 2007, ? 1), однако есть сомнения в серьезности этой проблемы.
Сегодня много говорится о качестве программного обеспечения и информационных систем, проводятся исследования, демонстрирующие зависимость качества и эффективности автоматизируемых бизнес-процессов. Качество программного обеспечения из абстрактного и неосязаемого понятия преобразуется в комплексную метрику оценки программного решения, проекта его внедрения, процесса создания и уровня использования информационных систем в целом. От чего же зависит качество программ и как можно на него влиять?
Программисты предпочитают избавиться от излишне сложных и устаревших методик и стремятся использовать подходы, позволяющие упростить и ускорить разработку. Как следствие, многие из них все чаще отдают предпочтение динамическим языкам программирования, таким как JavaScript, Perl, Python и Ruby. Эксперты по программному обеспечению так и не пришли к единому определению динамического языка, однако, по существу, такой язык позволяет создавать программы, способные менять свой код и логические структуры во время исполнения, добавляя при этом различные типы, имена модулей, классы и функции. Зачастую эти языки являются интерпретируемыми и, как правило, проверяют типы во время исполнения.
В январе IBM и Intel объявили об открытии веществ, позволяющих снизить утечку тока в транзисторах микросхем нового поколения. Однако конкретный состав ни одна из компаний не сообщила.
В Internet-издании Gallup Management Journal опубликован доклад по результатам исследования, посвященного влиянию рядовых служащих на темпы их бизнес-развития компаний.
Даже лучшие мастера чтения по губам иногда ошибаются, неверно разбирая слова, - поэтому в Университете Восточной Англии решили доверить данный процесс машине, взявшись за разработку системы автоматического преобразования видеозаписей процесса произнесения слов человеком в текст.
Жители Канады Майкл Тейлор и Денис Быстров решили поставить социальный эксперимент, цель которого - выяснить, сколь велико у современного человека чувство привязанности к компьютеру и насколько сложно от него отказаться всего на один день.
Модульные роботы SuperBot, созданные в Университете Южной Калифорнии по заказу NASA, оправдывают свое название тем, что могут выполнять довольно сложные движения и манипуляции, например карабкаться вверх по наклонной поверхности или взбираться по веревке.
Сегодня графические процессоры из устройств с традиционным фиксированным набором функций конвейера трехмерной графики постепенно превращаются в гибкий вычислительный механизм общего назначения. В начале 90-х годов повсеместная доступность интерактивной трехмерной графики казалось чем-то из области фантастики. Однако уже к концу десятилетия почти все новые компьютеры оснащались графическим процессором (Graphics Processing Unit, GPU), предназначенным для выполнения визуально ярких интерактивных операций, требующих высокой вычислительной производительности.
Количество электроэнергии, которая потребляется компьютерными инфраструктурами, в том числе персональными компьютерами, серверами, центрами обработки данных, маршрутизаторами и коммутаторами, стремительно растет. Ситуация осложняется тем, что высокопроизводительные системы в процессе работы выделяют все больше тепла. Для борьбы с этим производители встраивают в оборудование системы охлаждения, работа которых опять-таки требует все больше электроэнергии. Самые большие вычислительные комплексы, такие как центры обработки данных, теперь потребляют больше энергии, чем некоторые крупные заводы. Например, пять крупнейших поисковых компаний в настоящее время используют около 2 млн. серверов, которые, по словам вице-президента Ask.com Дэйна Сэмпсона, потребляют примерно 2,4 ГВт электроэнергии, что сравнимо с мощностью в 2 ГВт, генерируемой гидроэлектростанцией Hoover Dam. Все это стало поводом для начала строительства компаниями, подобными Ask.com, Google, Microsoft и Yahoo, собственных небольших гидростанций на реках американского Северо-Запада, где они могут получить относительно недорогую электроэнергию.
От обычных виртуальных машин осталось сделать всего один шаг к специализированным виртуальным устройствам, а дальше открывается возможность создания сетей на их основе и, может быть, пересмотр подходов к архитектурам информационных систем.
В феврале 2001 года семнадцать представителей нетрадиционных направлений программной инженерии сформулировали основные принципы «скорой» (agile) разработки в документе под названием Agile Manifesto. Среди авторов манифеста был Джеф Сазерленд — создатель самой первой agile-методологии Scrum.