Осенью 2004 года редакторы крупнейшего общественно-политического журнала Foreign Policy попросили восемь известных интеллектуалов сформулировать в одном понятии наиболее серьезную, по их мнению, угрозу для человечества. Большинство предложенных вариантов отражали хорошо известные старые опасности: разнообразные экономические мифы, возможность вступления в «войну со злом», американофобию и т. д. И только член Совета по биотехнологиям при президенте США Фрэнсис Фукуяма выдвинул совершенно новую версию: трансгуманизм
Трансгуманизм можно охарактеризовать как технологию передовых расширений возможностей отдельных индивидуумов. Хотя сюда относятся и физические изменения (зубы, сделанные из материала, по прочности не уступающего алмазу, искусственные волосы, самоочищающиеся уши, кости из нанотрубок, липидные сжигатели жира, полимерные мускулы), наибольший интерес представляет все же интеграция человеческого мозга и компьютерных (в особенности сетевых) технологий. Примерами трансгуманистических решений являются имплантация сотовых телефонов (с возможностью виртуальной телепатии), создание резервных копий человеческой памяти и ее расширителей, устройств, способных записывать мысли, и ускорителей рефлексов, интеграция в сознание средств взаимодействия (доска сообщений внутри мозга), а также очень длинный список управляемых мыслью исполнительных механизмов. В конечном итоге технологии может оказаться подвластна даже полная загрузка и выгрузка сознания из тела. Таким образом, теоретически самосознание сможет существовать вечно. Оно уже не будет неизбежно прекращать свое существование в какой-то определенный момент времени. Фактически мы столкнемся с одной из разновидностей бессмертия.
До реализации некоторых из этих возможностей еще очень далеко, тогда как другие уже сейчас привлекают самое серьезное внимание исследователей. Причем никто (по крайней мере сегодня) не говорит об их принципиальной неосуществимости. Почувствовав, что до внедрения некоторых из подобных технологий уже рукой подать, член Совета по биотехнологиям при президенте США Фрэнсис Фукуяма написал книгу «Our Posthuman Future: Consequences of the Biotechnology Revolution» («Наше постгуманистическое будущее: последствия биотехнологической революции»). Основная ее мысль заключается в том, что человечеству лучше всего полностью похоронить эту идею. Ведь трансгуманизм сделает фактически невозможным равноправие. Перспективы, которые откроются перед человеком, выйдут далеко за рамки границ общей терпимости. (Если уж сегодня у нас возникают проблемы из-за элементарных различий в цвете кожи, что же говорить о том времени, когда у некоторых людей появятся крылья, ускорители рефлексов и возможность значительно расширить свою память.)
Незнание и самоустранение — не выход
До сих пор неясно, может ли бойкот нейротехнологий стать реальным выходом из сложившейся ситуации. Когда окружающие вас люди — конкуренты, коллеги, партнеры — во время беседы будут запускать у себя в голове поисковые механизмы Google; свободно читать содержание документа, находящегося на удалении десяти метров; с абсолютной точностью вспоминать, что, где и когда говорил тот или иной человек; успешно координировать тактику ведения переговоров с помощью телепатических методов; работать не покладая рук без сна и отдыха или же управлять устройствами на конвейере одним движением мысли, единственным возможным вариантом для вас останется присоединиться к ним. В противном случае придется уволиться. Ни одна компания в перспективе не сможет игнорировать обладающий высочайшей конкурентоспособностью потенциал рабочей силы, оснащенной нейротехнологиями.
В настоящее время о трансгуманизме задумываются только футуристы, специалисты по этике (подобные Фукуяме) и исследователи. Однако как только мы непосредственно шагнем в эту технологию (если, конечно, такое произойдет), сразу несколько вопросов управления потребуют самого пристального внимания.
Рассмотрим, к примеру, ситуацию с управлением модернизацией.
С чисто капиталистической точки зрения одна из положительных сторон трансгуманизма состоит в том, что тело и разум вовлекаются в непрерывный цикл модернизации, характеризующий современные стандарты потребления. Одна из таких модификаций человека — корковый дисплей — уже изобретена. Новые, еще более совершенные начнут появляться на рынке ежегодно. Они будут отличаться пониженным энергопотреблением, более высоким разрешением, гиперспектральной чувствительностью, увеличенным средним временем наработки на отказ, улучшенными функциями записи, возможностью совместного использования, создания резервных копий и т. д. Помножьте это на колоссальное количество устройств, которые появятся в эпоху трансгуманизма, и станет ясно, что в каждый последующий год даже наиболее благополучные в финансовом отношении пользователи вынуждены будут отбирать для себя лишь очень скромное число вариантов из огромного многообразия открывающихся перед ними возможностей.
Немало вопросов вызывает и управление цифровыми правами.
Когда мозг сможет взаимодействовать с жесткими дисками, запоминание станет эквивалентно копированию. По-видимому, производители интеллектуальной собственности отреагируют на происходящее традиционным определением какой-то совокупности правил. Кто-то из них окажется более щедрым, кто-то — менее. Некоторые поставщики захотят, чтобы им платили при каждом обращении к памяти, другие позволят хранить информацию в своем сознании так долго, как вы пожелаете, но начнут взимать дополнительные деньги при ее перемещении в долговременную память. Третьи потребуют полностью уничтожить информационное наполнение, как только истечет срок действия ваших прав на него. По сути, это представляет собой определенную договорными отношениями форму амнезии. Возможно, мы ошибаемся в деталях каждой из приведенных иллюстраций, но почти наверняка у людей возникнет целый ряд вопросов, связанных с интеллектуальной собственностью, и осложнений, которые им придется преодолевать.
Другими словами, по всем признакам эра трансгуманизма станет золотым веком для руководителей информационных служб, которые в полной мере смогут применить свой богатый опыт. Даже если возникает вопрос, на который директор информационной службы не в состоянии немедленно дать ответ, он все равно оказывается именно тем человеком, которому следует задуматься над поиском ответа. Возьмем, к примеру, крайне неприятную проблему нейробезопасности.
Мозг, работающий в сети, очевидно, станет весьма привлекательной целью для противоправной деятельности, начиная от откровенного криминала и заканчивая раздражающими действиями хакеров и спамеров. Зачем стремиться к тому, чтобы завоевать расположение начальника, который, может быть, наконец задумается о вашем дальнейшем продвижении по службе, если достаточно всего лишь написать червя, настраивающего конфигурацию мозга руководителя таким образом, чтобы каждая мысль о вас оказывала непосредственное воздействие на его (или ее) центры удовольствия? К чему заниматься фишингом и подделывать сайты, если можно дать жертве прямое указание перевести свои активы на ваш банковский счет? Зачем терпеть присутствие представителей других религиозных конфессий, если есть возможность обратить их в вашу единственно правильную веру одним нажатием кнопки?
Кому доверять? По крайней мере, не себе
Генеральный секретарь ассоциации Anti-Phishing Working Group Питер Кассиди — один из немногих аналитиков, всерьез задумывающихся о нейробезопасности. Основная трудность здесь заключается в том, что самого себя мозг рассматривает как среду, заслуживающую доверия. Когда область мозга A получает от области B запрос на выдачу какого-то файла, она, как правило, автоматически пересылает нужные данные, даже не запрашивая идентификатор, или же для благопристойности осуществляет какую-то минимально возможную проверку. На практике, с годами и опытом, в мозге постепенно формируется короткий черный список, включающий в себя запрещенные инструкции. Зачастую в нем содержится информация о том, что определенные указания поступают из гипоталамуса, другие — из надпочечников и т. д. (например, команда «сделать ставку на красное» или «вступить в схватку с этой оравой матросов»). Но в общем случае опыт приходит очень медленно, а результаты не всегда оказываются удовлетворительными. Подобная беспечность станет совершенно недопустимой в век, когда взлом мозгов превратится в наиболее распространенную форму хулиганства, вредительства и мошенничества.
Кассиди указал, что одна из основных задач нейробезопасности будет заключаться в определении доверенных агентов. Вся система безопасности базируется на концепции двух доверенных участников (идентифицирующего признака и компьютера) и доверяющего им автора обращения. Головоломка нейробезопасности состоит в том, что в данном случае все идентификаторы смешиваются в одном и том же мозге. Таким образом, перед вами встает вопрос: стоит ли доверять самому себе? И если да, то когда и каким образом? Конечно, руководители информационных служб (и служб безопасности) хорошо знакомы с этим вопросом, который во многом похож на поиски путей защиты предприятия от сотрудников-вредителей.
Один из возможных способов решения проблемы нейробезопасности заключается в имплантации в наш мозг инфраструктуры открытых ключей, с помощью которой каждая нейронная область могла бы снабжать электронной подписью свои запросы и ответы, а также аутентифицировать запросы и ответы, поступающие из других областей. Второй способ предусматривает поддержку списка разрешенных ментальных операций и блокирование любой мозговой деятельности, выходящей за рамки этого списка. (Защиту списка от разрушения можно осуществлять за счет его постоянного обновления с помощью имплантированного чипа постоянной памяти, устойчивого к атакам хакеров.) Возможно, значительную часть нашей нейронной активности потребуется передать хорошо защищенным компьютерным узлам. Теоретически подобные меры способны улучшить систему нейробезопасности, которая формируется в процессе эволюции, избавить нас от зависимости перед навязчивыми призывами и пустыми политическими лозунгами.
Новые горизонты безопасности
Директор службы безопасности компании Secure Science Ланс Джеймс в настоящее время пишет книгу с рабочим заголовком Eye Own You («Под присмотром»), которая будет посвящена вопросам безопасности нейронных сетей. В ней он отмечает, что в данной сфере исследователям придется преодолевать значительно более серьезные препятствия по сравнению с другими областями. В обычных сетях с помощью методов имитационного моделирования можно проводить атаки, которые будут неотличимы от настоящих. Смоделировать работу сознания в ближайшей перспективе нам не удастся, а это означает, что инженерам, занимающимся вопросами нейробезопасности, придется проводить опыты на реальном мозге. Это совсем непросто уже потому, что добровольцев найдется немного. Кроме того, нейротехнологии почти наверняка будут строиться на основе беспроводной связи (вопреки тому, что нам показали в фильме «Матрица», люди вряд ли согласятся держать открытыми интерфейсы со своим мозгом), и это лишь добавляет исследователям головной боли.
Основная мысль новой книги Фрэнсиса Фукуямы Our Posthuman Future: Consequences of the Biotechnology Revolution («Наше постгуманистическое будущее: последствия биотехнологической революции» заключается в том, что человечеству лучше всего полностью похоронить идею трансгуманизма |
И тем не менее, по словам Джеймса, все не так уж плохо. Существенная часть сегодняшних проблем в сфере безопасности компьютерных сетей обусловлена унификацией аппаратного и программного обеспечения. Изучая особенности этой «монокультуры», хакеры находят универсальные лазейки. Если же каждый пользователь начнет заниматься построением и настройкой своего компьютера самостоятельно, добиться обеспечения безопасности будет значительно проще. Мозг не только способен самостоятельно запрограммировать себя, но и отличается высокой степенью самоорганизации. А это в свою очередь означает, что мозг каждого взрослого человека будет радикально отличаться от всех остальных. «Если рассуждать с точки зрения продаж, каждый мозг, по-видимому, сможет совместно использовать одно и то же ядро (хотя и это пока остается под вопросом), а вот все службы и программные обращения будут разными,» — пояснил Джеймс. Из-за этих отличий у разработчиков нейротехнологий возникнут немалые трудности при производстве продукции массового характера, но зато руководители информационных служб и служб безопасности смогут вздохнуть спокойнее».
Конечно, преодолеть все трудности сразу нам не удастся. Скорее всего, работа уже первых нейрокомпьютерных продуктов будет инициироваться мыслью. Эти устройства смогут функционировать в самых различных средах — начиная от передачи импульсов инвалидной коляске и протезам и заканчивая управлением промышленным оборудованием. Однако все эти операции можно выполнять относительно безопасно за счет того, что у трафика остается лишь один маршрут. Управляющие сигналы станут пересылаться через электроды, а обратная связь будет осуществляться через физические, относительно безопасные сенсоры. Само оборудование подключается к сети и поэтому может подвергнуться атаке, но мозг оператора окажется защищен.
Важность систем безопасности возрастет после появления второго поколения нейротехнологий: корковые имплантаты позволят вводить сенсоры и данные непосредственно в создание. Проводимые сегодня многочисленные исследования подобных имплантатов, по сути, упираются в поиск драйверов сознания (аналогичных драйверам принтеров или графических адаптеров), которые могли бы посылать сигналы прямо в мозг.
Ко всеобщей радости, среди устройств первого поколения, по-видимому, появятся и электронные глаза, которые вернут зрение слепым. Данная функция не требует подключения к Internet. А после этого останется всего лишь один шаг (концептуальный, поскольку при рассмотрении деталей у исследователей, естественно, возникнет множество других вопросов) до создания устройства, которое сможет принимать любые сигналы, начиная от инфракрасных и заканчивая телевизионными программами. С этого момента спрос на подключения подобного рода начнет стремительно расти. Кому не хочется иметь возможность читать электронную почту (или смотреть новую серию популярного телесериала), в то время как все окружающие полагают, что человек внимает очередной скучной презентации?
Руководители информационных служб на протяжении десятилетий заставляли пользователей серьезно относиться к вопросам безопасности: не применять в качестве паролей слово PASSWORD, ответственно подходить к выбо?ру и установке беспроводных точек доступа, не пренебрегать межсетевыми экранами. Но, как мы видим, зачастую их требования просто игнорируются. Возможно, с появлением нейросетей люди наконец поймут, что к мероприятиям по обеспечению безопасности нужно подходить серьезно.
А может быть, и нет.