В недавних новостях был показан увлекательный сюжет о роботе, который, судя по всему, страстно желал свободы. Сначала, убежав из российской лаборатории, он создал аварийную ситуацию на дороге и попал в поле зрения камер, а еще через неделю решил повторить свой побег. Есть вероятность, что в теперь провинившегося робота разберут на запчасти.
История эта звучит особенно интересно не только потому, что повторяет события фильма «Из машины» («Ex Machina»), но и в свете еще двух тесно связанных с нею новостей. Евросоюз готовит проект, согласно которому роботы, решающие определенные профессиональные задачи – те самые, которых мы все так боимся, ведь они грозят оставить нас без работы – будут классифицироваться как «электронные люди» с соответствующими правами и обязанностями. А исследователи из компании Google опубликовали документ, в котором перечислены основные угрозы безопасности, порожденные искусственным интеллектом.
Упомянутый ранее робот сбежал из компании Promobot, проводившей испытания нового поколения интеллектуальных устройств, выпуск которых готовится нынешней осенью. Случайно оставленные открытыми ворота позволили роботу уйти, и он провел вне компании в общей сложности около 40 минут. Впрочем, некоторые полагают, что на самом деле пресловутый «побег» был рекламной акцией, побочными результатами которой стали заторы на дорогах и прочая неразбериха.
Евросоюз, между тем, всерьез задумался о том, какими должны быть практические условия интеграции в наше общество роботов, выполняющих ту или иную работу. В проекте готовящихся инициатив говорится, что по крайней мере наиболее сложные автономные роботы могут получить статус электронных людей с соответствующими правами и обязанностями«.
Пока все это находится лишь на стадии обдумывания, но сам факт появления такой инициативы свидетельствует о растущем понимании этических, правовых и налоговых последствий дальнейшего расширения границ автоматизации.
И последнее по порядку, но не по значимости. В опубликованном недавно Google документе перечислены основные риски для безопасности, обусловленные развитием искусственного интеллекта. Первый из них касается потенциальных негативных побочных эффектов, когда, например, домашний робот разбивает вазу из-за стремления убрать комнату побыстрее. Второй исследователи называют «неправомерным получением награды». Если за поддержание комнаты в чистоте робот получает какой-то бонус, ему выгодно отключить свои органы зрения, с тем чтобы не замечать мусора.
Немало вопросов связано и с тем, насколько широкий простор для принятия решений мы готовы предоставить роботам, в какой степени следует ограничивать их исследовательские возможности, и как убедиться в том, что все ранее изученное они способны адаптировать к новым ситуациям.
«Сегодня многие проблемы безопасности можно устранить путем оперативного вмешательства или разработкой правил для конкретных случаев, – указали исследователи. – Но в дальнейшем при сохранении существующих тенденций на создание полностью автономных систем нам понадобится унифицированный подход, помогающий предотвратить нанесение этими системами непреднамеренного вреда».
Лучше заранее подстраховаться, потому что революция роботов только начинается, и, судя по всему, нам предстоит пройти в этом направлении весьма тернистый путь.