Если вспомнить «уродцев» наподобие Altair или даже первого IBM ПК, то остается только удивляться, как они, снабженные маломощными процессорами, памятью объемом 512 или 640 Кбайт, с примитивной графикой и без жесткого диска, смогли справиться с великолепной архитектурой мэйнфреймов и всей мощью супергиганта IBM?
«Большое железо» — это буквальный перевод американского термина Big Iron, так иногда называют любые большие компьютеры. Действительно, многие мощные компьютеры как будто сошли со страниц фантастических романов — особенно впечатляюще выглядели компьютеры Cray, создатель которых уделял внимание не только их производительности, — ему явно не были чужды вопросы дизайна и чувство вкуса.
История «большого железа» и длинная и короткая — смотря откуда вести отсчет. Вот краткая хронология доэлектронной эры:
- глубокая древность. Абак, счеты, камушки и палочки — прообразы первых компьютеров как внешнее (по отношению к человеку) устройство для счета;
- XVII в. Механические устройства Шикарда, Лейбница и логарифмическая линейка;
- XIX в. Перфокарты Жаккара для ткацких станков. Опередившая свое время механическая машина Бэббиджа. Прототипы устройств ввода/вывода: пишущая машинка, телеграфный аппарат. Код Морзе как прообраз ASCII и Unicode. Развитие технологий: вакуумная лампа, радио и телефон. Булева алгебра.
В начале XX в. были изобретены диод и триод, электронно-лучевая трубка. Карел Чапек пишет о роботах. В 30-х гг. вследствие потребностей в автоматизации вычислений сразу в нескольких странах начинается создание механических и электромеханических вычислительных устройств, а в середине 40-х практически одновременно появляются ENIAC в США и COLOSUS в Англии — первые представители «большого железа», которое ожидал стремительный путь эволюции как в области технологий изготовления (появление транзисторов, магнитных накопителей и т. п.), так и области теории (работы Тьюринга, Винера, фон Неймана и многих других столпов современной кибернетики).
Дальнейшее развитие связано уже не с лабораториями, точнее, не столько с лабораториями, сколько с коммерческими компаниями, прежде всего с IBM. Не будучи пионером этого рынка, компания создала IBM 701 и открыла эру мэйнфреймов. Само слово «мэйнфрейм» когда-то означало «основной каркас», на который навешиваются блоки и жгуты проводов, что многое говорит о технологической базе этих компьютеров. Сегодня оно приобрело самостоятельное значение — так называется определенная архитектура серверов.
УМНЫЙ И ТУПОЙ
Созданные изначально для военных целей, компьютеры стали представлять интерес и как коммерческий продукт. В результате IBM 701, ее модификация IBM 702 и более мощная 705-я машина вышли на рынок, где их судьба стала определяться законами бизнеса. Кстати, не менее талантливым разработкам советских ученых не хватило именно экономической мотивации, чтобы принять участие в этой гонке.
На Западе же наступила эра мэйнфреймов. При этом используемая модель вычислений получила название «одноуровневой архитектуры». Вся вычислительная мощность находилась на сервере, а для клиента предоставлялся только так называемый «тупой», или, что корректнее, «неинтеллектуальный», терминал. Такая модель обладала целым рядом преимуществ — все управление системой осуществлялось централизованно, следовательно, расходы на обслуживание были наименьшими, поскольку никакого программного обеспечения на клиентской стороне не устанавливалось, и профессия «настройщика» отсутствовала как таковая. Единственная возможная проблема — физическая неисправность терминала, тогда он просто менялся на исправный, и пользователь мог продолжить работу с того же места, где остановился, причем он не был привязан к какому-либо конкретному терминалу и установленному на нем программному обеспечению.
Архитектура мэйнфреймов создавалась еще в те времена, когда компьютеры стоили дороже, чем труд программистов, поэтому она была тщательно продумана в целях максимально эффективной реализации программного обеспечения. В качестве подтверждения достаточно вспомнить аппаратную поддержку языка высокого уровня Algol или систему команд со стековой организацией памяти в компьютерах Burroughs, применение которой позволяет естественным образом поддерживать представление в обратной польской нотации. Многие проблемы с программным обеспечением, такие, как дыры в защите или неустойчивость в работе, были вообще немыслимы на мэйнфреймах благодаря их аппаратному решению. Но главной особенностью является ориентация мэйнфреймов на обработку очередей запросов и массовую работу. В результате они могли (и могут) годами работать при загрузке процессоров, близкой к 100%, без какого-либо ухудшения производительности. Именно поэтому до сих пор их рассматривают в качестве первоочередных кандидатов для тех проектов, где требуется сочетание максимальной надежности и высокой производительности в реальных задачах.
Конкуренцию IBM в разные годы составляли Hitachi, Sperry Univac, Burroughs, Amdahl и еще пара-тройка компаний, но со временем практически все они вышли из игры. Сегодня IBM доминирует на рынке мэйнфреймов, как и много лет назад, а ее единственным оппонентом на рынке осталась лишь Fujitsu. Что же случилось с компьютерным миром и почему он так резко свернул с протоптанной дорожки?
СВОЙ КУСОЧЕК ЖЕЛЕЗА
Считается, что сокрушительный удар по миру мэйнфреймов нанес персональный компьютер, но это утверждение не вполне соответствует истине. Сам по себе ПК так и остался бы интеллектуальной пишущей машинкой и получил бы весьма ограниченное распространение в бизнесе. Причины кроются гораздо глубже.
При всех своих достоинствах мэйнфреймы были ориентированы на солидные корпорации, вместе с тем, компании меньшего размера и не располагающие большими средствами университеты хотели бы иметь собственную вычислительную технику. Законы рынка просты: есть спрос — будет предложение. Именно экономика привела к появлению мини- и микрокомпьютеров. Трудно сказать, кто внес больший вклад, но нельзя отрицать роль Digital Equipment Corporation (DEC) — ее разработки до сих пор активно используются AMD, Intel и HP. Выпустив в 1960 г. PDP-1 и развив его успех в следующих моделях, компания открыла новые горизонты в информационных технологиях. И здесь следует отметить одно очень важное обстоятельство, которое на момент создания первого мини-компьютера представлялось не очень значимым для отрасли как таковой, но впоследствии оказало существенное влияние на ее развитие.
Дело в том, что компьютерные системы того времени еще не были четко разделены на программное и аппаратное обеспечение — машины представляли собой программно-аппаратные комплексы. Да, конечно, существовали независимые от производителя разработчики, но они в основном писали программы для конкретных моделей. Переносимость, скажем, в рамках IBM System/360 была возможна, но настоящая эра переносимого программного обеспечения началась с появлением PDP-7 и вылилась не только в создание UNIX, но и привела к окончательному разделению программной и аппаратной части вычислительных платформ. Возможно, без этого шага независимые разработчики не создали бы необходимой программной базы для серверов, которая и обеспечила свержение с трона мэйнфреймов и триумфальное шествие клиент-серверных технологий.
Об истории появления персональных компьютеров написаны тысячи статей, и в большинстве из них приход эры ПК подается как само собой разумеющийся триумф более прогрессивной технологии над устаревшими мэйнфреймами. Человеческая память коротка, и мощь сегодняшних небольших устройств стала для нас вполне обычным явлением. Но если вспомнить «уродцев» наподобие Altair или даже первого IBM ПК, то остается только удивляться, как они, снабженные маломощными процессорами, памятью объемом 512 или 640 Кбайт памяти, с примитивной графикой и без жесткого диска, смогли справиться с великолепной архитектурой мэйнфреймов и всей мощью супергиганта IBM?
Как всегда причина не техническая, а экономическая. Просто стоимость вычислений в двухуровневой модели клиент-сервер оказалась меньше, чем стоимость одноуровневой модели. И никакая мощь IBM не смогла вернуть поток покупателей в старое русло. На сцену вышли новые герои — компьютеры RISC, операционная система UNIX и реляционные клиент-серверные СУБД.
Начало эры Reduced Instruction Set Computer (RISC) как техники было положено Джоном Коуком из IBM в 1974 г. как альтернативы Complex Instruction Set Computer (CISC). Архитектура CISC упрощала разработку программного обеспечения, но обладала существенными недостатками, из-за которых производительность серверных систем оказалось невозможно наращивать необходимыми темпами. Архитектура RISC позволила снизить требования к числу транзисторов на кристалле для достижения необходимой производительности и, следовательно, уменьшить цену. Вообще, именно экономика, а вовсе не техническое совершенство, всегда становилась основным критерием успеха либо неудачи той или иной технологии. В 1975 г. был создан прототип процессора 801, который никогда не поступал в продажу, но стал первым в мире процессором RISC. Кстати, название RISC, т. е. компьютер с сокращенным набором команд, появилось позже, чем сам процессор.
Но тогда время систем RISC еще не пришло: стоимость клиентской станции еще была слишком высока, а производительность первых процессоров RISC не позволяла им конкурировать с мэйнфреймами на равных. Можно сказать, что серьезные изменения в дизайне процессоров RISC — предсказание ветвлений, параллелизм, 64-разрядность и др. — появились как эволюция этой линейки, причем почти одновременно со взрывным ростом продаж персональных компьютеров, и, весьма вероятно, тесно связаны с потребностями дешевого «клиента» в таком же недорогом «сервере».
Примерно на этот же период приходится взлет компаний-поставщиков СУБД. Фактически клиент-серверные технологии обеспечили основу для экономического роста всей отрасли информационных технологий на тот период. Как видно из информации на сайте Transaction Processing Performance Council (TPC), появившиеся в 1989 г. тесты TPC-A для оценки производительности транзакций в одноуровневых системах спустя шесть лет исчезли за ненадобностью, уступив место предложенным в 1992 г. тестам TPC-C для двухуровневой архитектуры. Собственно, за три года сосуществования двух типов тестов и двух типов архитектур и решилась судьба мира ИТ. Победа досталась новичкам.
Кто же они — герои клиент-серверной революции? Первых рекордсменов по производительности транзакций легко найти на том же сайте TPC (http://www.tpc.org) — это IBM, HP, NEC, Bull, Compaq, NCR, Fujitsu, Sun, Tandem, Digital, Unisys, SGI, Intergraph, ALR, DG, Sequent. Славные имена, не все дожили до нашего времени как самостоятельные компании, но их технологии не пропали, а унаследованы новыми владельцами.
Конечно, не все в ИТ мире было связано с клиент-серверными технологиями. Созданные изначально для математических расчетов, компьютеры продолжают служить человеку в этом качестве. Их по-прежнему используют для решения научных задач, моделирования сложных технологических и технических процессов, криптографии и во многих других областях.
Вычислительные серверы прогрессировали не менее быстро, чем их коммерческие собратья. Вспомним еще раз Сеймура Крэя и его чудо-машины. Решения, которые были применены в них, и сегодня удивляют красотой и целесообразностью (с достижениями в этой области можно ознакомиться на сайте http://www.top500.org). Однако индустрия суперкомпьютеров претерпела серьезный кризис в 90-х гг. Созданные для расчетов и применяемые в основном военными, которые никогда не были стеснены в средствах, подобные устройства с трудом вписывались в обычную жизнь. Ресурсоемкие задачи для них, конечно, существовали: обсчет данных сейсморазведки, расчет погоды, моделирование биопрепаратов и крэш-тестов автомобилей, научные исследования и многое другое, но потребители не были готовы оплачивать их реальную стоимость. Решение пришло из научных лабораторий и носило название grid, или «решетка». Технология систем крайне проста — это большой кластер, собранный из недорогих машин, иногда даже легких серверов или ПК. Главное в них — правильно распределить вычислительные ресурсы и распараллелить задачу. Воплощение идеи потребовало времени, но сегодня большая часть списка TOP-500 суперкомпьютеров собрана на основе такой архитектуры.
НИКАКОГО RISС?A
Последнее десятилетие прошлого века стало для серверов RISC золотым временем. Объемы поставок росли, наращивалась и вычислительная мощность. Однако перед программным обеспечением встала очередная проблема — новые приложения требовали все большего числа операций на стороне сервера, а СУБД оказалась не самой лучшей средой для выполнения этих вычислений, что, собственно, неудивительно, так как СУБД разработаны для хранения и управления данными, а не для расчетов.
После относительно короткого периода увлечения «объектно-ориентированными» СУБД, где хранящиеся объекты содержали данные и код, стало очевидно: часть вычислений необходимо вынести за пределы базы данных. Выделение специального сервера для выполнения бизнес-операций привело сначала к появлению трехуровневой архитектуры «клиентх — сервер приложений — СУБД», а затем к распределенной архитектуре, когда в сети существует множество серверов приложений, на которых параллельно выполняется бизнес-логика приложений, и один или несколько серверов СУБД. Таким образом, без увеличения производительности самих серверов удалось значительно повысить производительность всей системы. Например, в таблице результатов наиболее распространенного теста производительности SAP Sales and Distribution (SD) рекордная производительность в трехуровневой архитектуре достигается в конфигурации из одного 64-процессорного сервера HP Integrity для СУБД и 160 четырехпроцессорных HP Integrity rx4640 в качестве серверов приложений. В двухуровневой архитектуре результаты в пять раз скромнее и достигнуты на 64-процессорном сервере архитектуры Power5.
Как уже неоднократно говорилось, главная причина смены поколений серверных систем — экономическая. Никакая распределенная архитектура не была бы возможна в промышленных масштабах, если бы в середине-конце 90-х гг. не произошло одно знаменательное событие: стоимость передачи данных по сети стала меньше стоимости вычислений на одиночном сервере. Одна из причин заката одноуровневой архитектуры — сокращение расходов на передачу данных и, как следствие, перенос вычислений на клиентский компьютер. Через десяток лет этот фактор перестал иметь значение, но технологическое развитие не вернулось на прежний уровень, его виток привел к созданию слоя серверов приложений как более дешевой альтернативы индивидуальным суперсерверам.
В XXI в. серверы RISC вступили в очень хорошей форме, лидируя на всех фронтах. Казалось, что их развитию ничего не угрожает. Технологии достигли высочайшего уровня. Распределенная архитектура приложений позволила «обмануть природу» и увеличить производительность серверных систем быстрее, чем росла мощность процессоров и индивидуальных серверов. Все понимали: прогресс и в дальнейшем будет связан с многоуровневой архитектурой, а нас ждут рост бизнеса сервисов Web и стандартизация распределенных архитектур. Однако в большую игру вмешались новые факторы и новые игроки.
Во-первых, в индустрии ИТ наступил кризис. По всему миру компании потратили огромные деньги на решение мифической проблемы Y2K, практически одновременно проведя модернизацию своих систем, и решили несколько повременить с дальнейшими расходами. Во-вторых, негативное влияние на ИТ оказал крах экономики Dot Com. В результате в течение трех лет происходило падение объемов рынка ИТ в целом и рынка серверов в частности.
К тому же появился новый игрок — производитель процессоров Intel. Еще пять лет назад в это было бы трудно поверить, но сегодня Intel и его конкурент AMD действительно крайне активны на рынке серверов, а продажи легких серверов архитектуры x86 растут намного быстрее по сравнению с продукцией других сегментов. Разве можно было предположить, что «непримиримый» Скотт Макнили, выступая на выставке Comdex Las Vegas 2003, скажет: «Мы были не правы. Я сожалею, что давным-давно, когда мы разрабатывали свою стратегию, не делали это вместе с Intel». А ведь есть еще совместный проект с HP — процессор Itanium. Конечно, системы RISC не сдаются и выставили в ответ IBM Power5, Sun UltraSPARC IV+, Fujitsu Siemens Computers SPARC64 V. Но основная угроза сегодняшнему миру серверов таится не здесь.
СМЕРТЬ «БОЛЬШОГО ЖЕЛЕЗА»?
Некоторое время назад Ларри Эллисон и Майкл Делл провозгласили «смерть большого железа» и приход технологий grid. В понимании Эллисона и Делла это уже не тот grid, который победоносно шествует в области вычислительных задач, а развитие идеи распределенной архитектуры. Если вы заметили, мы остановились в описании этого направления на распараллеливании серверов приложений, но оставили в стороне сервер СУБД. Дело в том, что распараллеливание СУБД происходит путем кластерных технологий. Сегодня существуют два основных направления: Shared Nothing и Shared Disk. Первая архитектура подразумевает разбиение задачи на независимые фрагменты, которые могут выполняться параллельно на нескольких узлах кластера. Если список клиентов разбить по алфавиту и распределить по узлам, то поиск клиента будет практически независимым, причем такая архитектура легко реализуется. Однако на практике необходимо прослеживать множество связей между таблицами и исполнять более сложные транзакции — в таких случаях Shared Nothing плохо масштабируется и распараллеливается. Архитектура Shared Disk менее чувствительна к подобным проблемам, поскольку предусматривает обращение к единому дисковому массиву, но и у нее имеется своя ахиллесова пята — проблема «устаревших» данных на диске. Она имеет место, когда данные с диска были считаны одним из узлов, изменены и еще не вернулись на диск. Тогда по интерфейсу связи между узлами передается команда «сбросить данные на диск». Эта операция достаточно медленная, и потому производительность системы быстро деградирует.
Предложение Oracle состоит в следующем: не сбрасывать данные на диск, а передавать их по интерфейсу связи между узлами напрямую. Теоретически оно выглядит очень привлекательно — более того, это выгодно и с точки зрения бизнеса. Сегодня, когда необходимо обеспечить высокую производительность работы СУБД, приобретается сервер RISC с большим числом процессоров. Архитектура ccNUMA подразумевает организацию этих процессоров в блоки (по четыре штуки) с общей памятью и применение очень быстрого коммутатора обращения к памяти на другом процессорном блоке, разрешение конфликтов и синхронизацию кэшей процессоров. Такой технологией обладают не больше десяти компаний, это действительно передовой край серверных технологий, и цена устройств весьма высока. Кроме того, если в будущем планируется увеличить число процессоров, то необходимый — причем недешевый — коммутатор следует приобрести вместе с серверной стойкой уже в самом начале. Вместо этого Oracle предлагает купить несколько недорогих легких серверов (до четырех процессоров), связать их в кластер и добавлять новые узлы по мере роста потребности в вычислительных ресурсах. «Вы платите, только когда вам нужна вычислительная мощность» — этот лозунг чрезвычайно привлекателен для потребителя. По заверениям Oracle, новый подход означает смерть всех других серверных технологий и «большого железа» в его современном виде.
Насколько вероятен такой исход событий? Скорее всего, это вряд ли произойдет. Эллисон — хороший провидец, но плохой предсказатель: он различает те тенденции, которые не видят остальные, но очень плохо прогнозирует события. К примеру, его предсказание о победе «сетевых компьютеров» над персональными впервые поставило вопрос о высокой стоимости обслуживания «клиентов», но вместо «сетевых компьютеров» это вылилось в появление средств удаленного администрирования ПК. Проблема наращивания мощности серверов действительно стоит довольно остро, но, скорее всего, будет решена за счет использования новых мощных серверов и средств виртуализации, т. е. динамического перераспределения вычислительных мощностей в рамках одного компьютера, как это было сделано еще в мэйнфреймах. Спираль развития серверов снова совершит виток и вернется к старым идеям на новом техническом уровне.
За относительно небольшой срок, чуть более полувека, серверы прошли огромный путь. Они пережили несколько поколений, смену парадигм и технологий; реле и процессоры уступили место новейшим микросхемам; как в калейдоскопе, мелькало программное обеспечение, появлялись и исчезали компании и модели машин. Одно оставалось неизменным — серверы всегда были наиболее технологически продвинутым направлением развития отрасли ИТ. Здесь опробуются новые идеи и технологии, которые потом могут появиться в более простых и дешевых устройствах. Что нас ждет дальше? Увы, предсказать можно только эволюционные изменения, а история серверов — это история революций. Тем интереснее.
Михаил Елашкин — директор компании Elashkin Research. С ним можно связаться по адресу: http://www.elashkin.com.
Второе дыхание AS/400
Усилия компании IBM и растущее предложение программных средств вдохнули новую жизнь в систему среднего класса AS/400 и ее сетевые возможности. IBM явно дает понять, что по-прежнему рассматривает AS/400 как основной продукт для продвижения на рынке. А с появлением все новых и новых средств соединения с локальными сетями эта система имеет просто отличные перспективы — особенно если такие компании, как Novell и Microsoft, и в дальнейшем будут выпускать совместимое ПО.
IBM провела агрессивный маркетинг OS/2 и усовершенствовала классические разработки в области мэйнфреймов и мини-компьютеров, особенно систему среднего класса AS/400. В результате значительного снижения цены и внедрения новой технологии процессора (File Server I/O Processor, FSIOP) AS/400 стала неотъемлемой частью множества локальных сетей, a объемы ее продаж за 1994 г. возросли в два раза.
Ввиду расширения рынка AS/400, компании Novell, IBM и Microsoft выпустили совместимые версии сетевых продуктов. IBM, кроме того, заново переписала пакет PC Support/400 (переименовав его в Client Access/400) и включила в операционную систему AS/400 3.1 поддержку TCP/IP.
«Журнал сетевых решений/LAN», №4, 1995, стр. 48
Клиент-сервер стремится в сеть
Ничто не ново под луной. Это набившее оскомину клише с равным правом применимо как к истории человечества в целом, так и к истории компьютерной отрасли в частности. Вначале были терминалы конечных пользователей, они давали указания большим хостовым системам, хосты выполняли приложения и передавали результаты обратно на терминалы. Со временем хосты уменьшались в размерах и становились более специализированными.
Затем, с появлением ПК, которые совершили революцию в мире бизнеса, каждый пользователь стал обладателем настольного компьютера, не уступающего по мощности прежним хостам. Но тут возникло препятствие: пользователь располагал своим собственным множеством данных, причем часто дублировавших данные, находящиеся на соседней машине. Совместное использование такой информации было чрезвычайно затруднено. Появление локальных сетей, казалось, решило эту проблему. Однако всякая медаль имеет оборотную сторону: сетями было очень сложно управлять, а приложения, которые им требовались, — сложно писать.
Некоторые ответы были найдены на пути возврата к ранним формам организации компьютерных вычислений — хостовым системам, получающим указания от пользовательских терминалов. Теперь, однако, это соединение открыто для всех, причем пользователь может не бояться за его защищенность и использовать любые приложения, как только они появляются. Ключом к данным изменениям являются, безусловно, Internet и его молодой родственник Intranet.
«Журнал сетевых решений/LAN», №5, 1996, стр. 73
Серверы на базе процессоров Intel завоевывают предприятие
До недавнего времени корпоративные серверы приложений и файлов были целиком под юрисдикцией систем UNIX на базе процессоров RISC. Появление набора микросхем Pentium Pro подвигло многих производителей оборудования к разработке конкурентоспособных с унаследованными системами корпоративных серверов на базе процессоров Intel. Наличие «горячей» замены источников питания, избыточных охлаждающих вентиляторов, жестких дисков на сотни мегабайт, памяти с коррекцией ошибок, отказоустойчивой конфигурации и интегрированного программного обеспечения управления системами свидетельствуют о стремлении производителя серверов выйти на корпоративный рынок.
Производительность, надежность, функциональность и управляемость — вот главные критерии, используемые менеджерами по ИТ при оценке корпоративных серверов приложений и файлов. Администратор решится заменить дорогостоящий мэйнфрейм или мини-компьютер на высокопроизводительный сервер на базе Intel только при огромной разнице в цене и при сравнимом уровне производительности. Однако соотношение цена/производительность не может быть единственным оправданием приобретения нового сервера. Система в целом должна обеспечивать высокий уровень избыточности для обеспечения работы без сбоев и целостности данных.
С появлением в локальных сетях корпоративных серверов на базе ПК для критичных приложений компании получили возможность обслуживать оборудование собственными силами вместо того, чтобы заключать дорогостоящие контракты на ремонт и обслуживание. Удобство доступа к компонентам внутри сервера упрощает обслуживание оборудования для технического персонала, а возможность «горячей» замены позволяет поддерживать сервер в работоспособном состоянии во время замены критически важных компонентов.
«Журнал сетевых решений/LAN», №1, 1997, стр. 28.
Способна ли кластеризация разгрузить сеть?
Несмотря на весь объем печатных материалов, посвященных кластеризации, ее реализаций не так уж и много, особенно в сравнении с традиционными технологиями обеспечения отказоустойчивости и доступности типа зеркального дублирования серверов. При кластеризации два или более серверов (или узлов) совместно используют общие ресурсы, так что они могут обеспечить высокую степень доступности и, в конечном итоге, масштабируемости. При традиционном подходе резервная система вступает в работу, когда основной сервер выходит из строя.
Существуют разные мнения, почему распространение кластеризации идет не столь быстрыми темпами, как ожидалось. По мнению Тома Нолле, президента консалтинговой фирмы CIMI, спрос на специализированные серверы приложений возрастает, но на уровне рабочей группы, поэтому число клиентов недостаточно велико для оправдания использования кластерной технологии. Нолле полагает, что «ожидать резкого увеличения числа реализаций не следует», по крайней мере в ближайшие пять лет или около того.
Исходя из такой оценки, вы вправе спросить, насколько жизнеспособной опцией кластеризация является с точки зрения расшивки узких мест сети? Ответ будет зависеть от многих факторов.
«Журнал сетевых решений/LAN», №11, 1998, стр. 32
ПК-серверы старшего класса
Мы живем в благоприятные времена для ПК-серверов. Быстродействующие микросхемы, восьмипроцессорная симметричная обработка и высокая надежность подняли эти когда-то скромные машины на новые высоты. Но многое из того, что выглядит как прогресс, — в действительности всего лишь бег на месте.
Например, спрос на восьмипроцессорные серверы Intel очень мал. Некоторые крупные производители, в частности Gateway и Toshiba, их вообще не производят. Те же, кто выпускает такие продукты, предназначают их для крупных приложений с высокими требованиями к вычислительной мощности. Но имеющиеся слабости с точки зрения надежности, доступности и масштабируемости делают их менее подходящими для поддержки высококритичных приложений. В этой области главную скрипку по-прежнему играют мэйнфреймы, компьютеры RISC/UNIX и AS/400.
Один из сдерживающих факторов прогресса в области ПК-серверов — это их все более активное превращение в потребительский товар, о чем свидетельствуют падение цен и рост объемов продаж. Падение цен отражает тот факт, что заказчики стремятся преимуществено получить больших быстродействия от процессора, пространства на диске и скорости ввода/вывода на каждый потраченный доллар. Яркие новые функции являются для них второстепенным фактором. Intel имеет мало стимулов для изменения структуры спроса, так как у компании практически нет конкурентов на рынке ПК-серверов старшего класса. (AMD и другие составляют ей конкуренцию лишь на рынке настольных и портативных систем.)
«Журнал сетевых решений/LAN», №11, 1999, стр. 53