«Новая большая штука» [1] в ИТ уже тут. По разным оценкам «зима» искусственного интеллекта завершилась к 2006 году, когда Джеффри Хинтон популяризировал глубинное обучение и пользователи информационных технологий вступили в новую действительность. Возобновились инвестиции, и появились достаточно очевидные выгоды от внедрения ИИ, которые теперь доступны практически любому посетителю Интернета [2].
Индивидуальные гаджеты и корпоративные сети заполнились сгенерированными машиной рефератами, изображениями и программным кодом, автоматическим анализом больших массивов данных, юридическими советами, выявлением скрытых закономерностей в продажах и в производственных процессах. Сегодня можно получить вполне адекватную помощь в сегментировании аудитории по отзывам клиентов, спрогнозировать тенденции, оптимизировать ресурсы и сократить издержки. По действиям сотрудников в цифровой среде нейронные сети могут оценить вклад каждого участника в общую работу. Это новые полезные для деятельности и общества опции. А кроме этого, любое устройство с нейронными чатами стало «свидетелем» постоянных «уговоров» нейронной сети, чтобы она работала хорошо и не работала плохо. Это новый тип разговоров с машиной стало модно называть промтами для нейронных сетей.
Что все это означает для мышления человека?
Еще на заре компьютерной эпохи почти все ее основатели четко указывали, что искусственный интеллект — это способ человека разобраться с собственным мышлением и деятельностью. Именно так понимали свою работу и Алан Тьюринг, и Марвин Мински, и Даг Энгельбардт. Можно усилить пафос этого тезиса — тем, кто не начнет определенным образом усиливать свое мышление, не удастся воспользоваться выгодами новых технологий — ИИ заставляет заново внимательно продумать массу вопросов: от стратегии бизнеса до анализа собственных способов размышлять и говорить.
Что же перед нами находится, какова его природа, какие именно функции интеллекта там есть, а каких точно нет?
С самого начала разработок компьютерных систем в них вкладывалось некоторое представление о том, как работает мышление человека. Чарльз Бэббидж создал первое автоматизированное вычисление для своей машины, сняв всю модель с того, как небольшой коллектив людей работает с алгоритмами. Логарифмы были узким местом в инженерии того времени, а концепция разделения труда была очень популярна. Сложные расчеты, такие как создание таблиц логарифмов, начали выполняться с помощью команд математиков и операторов. Высококвалифицированные специалисты разрабатывали алгоритмы, а остальные работники выполняли рутинные вычисления, что ускоряло процесс и обеспечивало нужную точность. Именно эта система стала предшественником идей автоматизации вычислений, которые позднее и развивал Бэббидж. Таким образом, в самой идее цифровых решений изначально было разложение деятельности ума на узлы и операции. Отголоски этого подхода всегда присутствуют в любой момент, когда любая компания соберется автоматизировать свою деятельность и начнет выбирать инструменты для этого [3]. Однако для любой автоматизации нужно, как минимум, так описать деятельность, чтобы ее можно было раздать машине на исполнение по отдельным операциям. ИИ включается в экономику, но «кто» именно включается? С каким «мышлением» мы теперь работаем? С появлением новых типов ИИ появляются особенности, о которых надо думать по-новому.
Думать — с каким типом мышления мы говорим в нейронных сетях?
Это так же важно, как и хорошо подготовиться к деловым переговорам и понимать особенности контрагента.
Представлений о мышлении существует очень много — в мешок с интеллектуальными функциями попадают: понимание, память, восприятие, обобщение, внимание, рефлексия, математические операции, воображение, распознавание образов, рассуждение и т. п. То, какое именно представление определило характер современного ИИ, определяет спектр задач, которые решает машина, и спектр задач, которые в новых условиях должен решить сам человек внутри современной человеко-машинной системы.
Кто сейчас главный в индустрии ИИ с точки зрения победившего представления о мышлении человека?
Классификаций подходов к программированию систем ИИ тоже много. Однако эти списки легко кластеризовать в несколько базовых типов [4]. Подходы в ИИ можно разделить на три «линейно независимые» оси, на которые раскладывается любая модель, положенная в основание системы ИИ: логическая, коннекционисткая и эволюционная.
Символьное/логическое программирование. Система работает, манипулируя символами и логическими правилами для вывода. Мышление представлено как рассуждение, выводы на основе правил в математической логике. Фактически это завершающая фаза существования всей Аристотелевой формальной логики и ее развития в аналитической философии.
Коннекционистское программирование. Это и есть нейронные сети, в которых взаимодействуют множество узлов (нейронов), параллельно обрабатывающих сигналы. Вместо явных правил система обучается на данных, корректируя и переорганизуя связи между узлами для улучшения своих ответов. Мышление представлено как ассоциации и обратная связь, влияющая на связи в сети [5].
Эволюционная (генетическая) парадигма. Была и остается, но пока глубоко спрятана внутри современных систем на вспомогательных ролях. Мышление здесь представляется как эмерджентные (случайные) переходы между разными ветками состояний системы или «рассуждений».
Думать — какова природа данных в системе?
В любой человеко-машинной системе человек сразу столкнется с самым главным — с данными. Как они упакованы в машину, какие возможности и ограничения существуют, определено тем, какие представления о мышлении человека вложены в компьютерную часть системы. Без понимания природы данных в системе не получится ни «data driven», ни «data as a product», поэтому помимо многочисленных курсов по цифровой трансформации бизнеса любому руководителю придется понять устройство данных. А поскольку сейчас мы переживаем переход от одного представления мышления в ИИ к другому (см. рис.), то руководителю придется осознанно делать выбор — данные какого типа полезны для деятельности его компании и надо ли ему вместе со всеми совершать переход к новому типу. Раньше такого выбора не было и думать было не нужно.
Хронология развития двух подходов в искусственном интеллекте: символического (Symbolic AI) и коннекционистского (Connectionist AI) [6] |
В чем же разница между способами работать с данными в (условно) предыдущей и в (условно) настоящей парадигме ИИ? В логической (символьной) парадигме мышление — это посылки и следствия по правилам вывода. Это значит, что для упаковки данных разработчиками прописаны правила, выполняемые программой. Современная математическая логика позволяет совершать с данными разные операции вплоть до выявления неявных связей в их массивах, что наглядно продемонстрировали экспертные системы конца 1990-х. Управление данными в этом случае требовало максимально четко описать все возможные ситуации («фреймы») для базы знаний, все возможные коллизии в данных и способы подведения их под описанные экспертом типы. По сути, получались многоаспектные базы с многоаспектными выборками и метаданными, вручную заложенными экспертом. Метаданные задавали контексты, в которых система интерпретировала данные и четко их разделяла: данные служили фактами, а метаданные — инструкциями по работе с этими фактами [7]. Тогда система автоматически могла совершить некую «магию» интеллекта — выдать ту информацию, которую человек долго бы получал вручную.
Однако экспертные системы очень слабо работали с любой языковой информацией — они не разговаривали с пользователем. Зато результаты «экспертизы» были достаточно объяснимы и проверяемы, хотя и жестко ограничены тем, что знают и понимают разработчик архитектуры и эксперт, формировавшие базу. Даже если точно не известно, как получено решение экспертной системы в логической парадигме ИИ, пользователю понятно, что это был логичный вывод и знания именно эксперта — другого там и быть не могло.
В логической системе думать надо про то, как превратить свою деятельность и собираемые с нее данные в четкие объекты и правила работы с ними — программиста для этого вполне достаточно.
В работе с нейронными сетями программиста уже мало — нужен кто-то наподобие хорошего преподавателя, такого, который не просто дает формулы, а умеет и привык работать в диалоге с активным, эрудированным, но не очень умным стажером, имеющим проблемы с формальной логикой. Это как переход из кабинета консервативного бухгалтера в кабинет креативного директора — приходится думать совершенно о другом, чтобы согласовать работу.
Дело в том, что мышление в коннекционистском подходе (нейронные сети) — это ассоциативные связи и обратная связь от пользователя, которая эти связи в той или иной мере переструктурирует. Все тексты, все изображения в нейронных сетях превращены в числовые наборы — вектора. Именно между векторами налаживается связь. При глубинном обучении она достаточно сложная. Но в целом речь идет только о математической топологии, которая учитывает разные, исключительно числовые параметры для решения вопроса о близости и дальности фрагментов данных в сети. Поскольку во время обучения вся нейронная сеть от внешнего воздействия постоянно меняет эти числовые параметры во всех своих связях и узлах, то создать логически точное описание данных в ней не удается. Не то чтобы это было невозможно онтологически — это невозможно практически. Такой расчет занял бы все мощности, все время вычислительной системы и сделал бы саму работу ИИ бессмысленной.
Долгое время до этого шел процесс различения данных, метаданных и информации, что делало всю систему работ более понятной и управляемой. А теперь все словно вернулось к исходной точке — все управление нейронной сетью и настройки ее работы с данными совершаются самими данными. Вместо архитектур программ мы создаем больше примеров с небольшими изменениями, добавляя вариации текстов, изображений, таблицы и пр., создавая тексты, которые носят статус наших пожеланий. Контекст определяется самим набором данных, их структурой, распределением и особенностями. Нейронные сети не используют фиксированные метаданные для интерпретации — они «выучивают» контекст из самих данных, находя скрытые связи и зависимости. Данные управляют данными.
В результате человек управляет целостной средой обучения, где данные становятся и содержанием, и правилами его интерпретации. И именно это и обеспечивает те новые практические применения ИИ. Но делает систему менее объяснимой.
Справедливости ради надо отметить, что в системе разделения труда вокруг ИИ уже появилась услуга по объяснению работы нейронной сети. Подобные сервисы разработаны для того, чтобы сделать работу нейросетей прозрачной, особенно в ситуациях, когда результаты имеют критическое значение (медицинские диагнозы, финансовые прогнозы, автоматизация в производстве). Но с этим еще немало сложностей и это пока очень дорого для средних и небольших предприятий.
Итак, только на примере данных уже видно, насколько разные машины сейчас могут «встать напротив человека» и насколько о разном ему надо подумать при этой встрече.
Для того чтобы ярче подчеркнуть различие размышлений перед экраном «логически четкой многоаспектной базы данных» и перед экраном «ассоциативной нейронной сети», стоит теперь указать на приемы работы с нейронными сетями, остановившись на тех, которые точно будут реализованы в работе обычной компании, решившей взять ИИ в свой штат.
О чем неизбежно будет думать оператор ИИ-системы?
Теперь успех работы нейронной сети зависит не от формально прописанных правил, а от того, насколько качественно подготовлены данные и насколько искусно специалист выстраивает диалог с сетью. По структуре действия все это больше похоже на проведение уроков в школе, чем на прямое ручное управление «мозгами системы». Естественно, что учитель думает совсем не о том и не так, как думает инженер. Процесс обучения и поддержки работы сети напоминает воспитание умного, но непредсказуемого ученика. Эта метафора становится очень конкретной в ситуации, когда руководитель подбирает на работу человека для организации информационных процессов — обычный программист вряд ли подойдет из-за неумения выстраивать обучающие диалоги.
Особенностей работы с нейронной сетью насчитывается около десятка, разберем лишь наиболее яркие отличительные черты работы с ассоциативным «мышлением».
Рабочая онтология и обучение. По-прежнему можно использовать описание рабочей онтологии, но статус ее резко меняется. Если раньше для логических систем такая онтология определяла фактически архитектуру программного комплекса, то теперь рабочая онтология носит статус текста, который хоть и может иметь некоторый приоритет, но остается лишь текстом в нейронной сети и уж точно не ее архитектурой. Можно только постараться описать в нем ключевые понятия и их связи, чтобы «ученик» или «ассистент» мог понять структуру знаний. Попытка жестко прописать универсальную формулу или строгое правило будет бесполезна — система просто не сможет удержать такую фиксированную конструкцию. Оператор сети будет сам в своем мышлении удерживать те образы ситуаций, которые должны быть получены нейронной сетью, и буквально угадывать, какие тексты сработают, а какие нет.
Если что-то заработает плохо, то можно только добавлять сети дополнительные примеры, но не пытаться заковать обучение в жесткие запреты. Конечно, запрещающие промты (инструкции сети) некоторым образом работают, как бы выполняя чисто логическое отрицание. Но надеяться только на них не получится, поскольку природа этой модели — не логическая.
Равномерное распределение и оптимальный объем «знаний». Очень важный и максимально странный, с точки зрения прежних баз знаний, параметр работы оператора, который теперь должен уделять внимание тому, чтобы «ученик» не сосредотачивался только на одной теме, а охватывал все важные аспекты. Это как создать гибкий план обучения, где темы распределяются равномерно, но с учетом их сложности и важности. При этом слишком сильно переобученный ученик еще хуже недоученного — он начинает выдавать совершенно нелепые ответы. Можно себе представить, насколько иначе будет устроено внимание оператора нейронной сети, чем внимание оператора логически устроенной базы данных. Тут он будет думать категорией меры и даже гармонии, а не усилением логики или математики.
Ясно, что оператору придется думать о том, как вообще устроено его собственное знание. Любой хороший промт — это не просто данные, это рефлексивная имитация работы ассоциативного мышления и одновременно попытки довести ассоциации до более-менее жесткой логики. Никогда ранее операторам человеко-машинных систем не приходилось сталкиваться с такими задачами. Но эти задачи являются «новостью» только в мире цифровых технологий, а не в гуманитарном мире. Исследование когнитивных функций человека в человеко-машинных продолжается [3].
Профессионалы могут искренне не понимать, зачем описывать очевидные всем известные факты и зачем об этом думать руководителю предприятия. Но практика показывает, что без четкого объяснения сути нейронных сетей даже технически образованный человек в какой-то момент впадает в иллюзию и либо ожидает невозможного, либо не использует возможное, а затем тратит большие деньги на избавление от иллюзий.
Сама ассоциативная модель мышления с неизбежностью влечет за собой ограничения искусственных систем. Хорошо бы о них подумать еще до того, как весь бюджет, выделенный в компании на ИИ, будут уже потрачен.
Думать о том, чего нельзя хотеть от ИИ
Подумать об экономике в индустрии ИИ. Надо прекратить думать о разработке собственной нейронной сети — разделение труда будет устроено иначе. Большинство жителей эпохи ИИ никогда не станут владельцами большой обученной нейронной сети, поскольку создать приемлемый аналог GPT или YandexGPT слишком дорого. А нейронная сеть меньшего порядка с гораздо меньшим успехом обработает ваши данные. Одно только понимание этого факта уже спасло от банкротства немало компаний, руководителям которых предлагалось профинансировать разработку нейронной сети с нуля исключительно под конкретные задачи компании.
Большинство участников процесса будут покупать разные виды доступа к глобальным сервисам или, по крайней мере, уровня своей страны. Чтобы нейронная сеть решала небольшие локальные задачки, она должна иметь доступ к результатам обучения большой нейронной сети. А в ближайшее время переворота не будет ни в модели, ни в ее обучении. Поэтому уже можно спокойно обдумать очевидные ограничения.
Предполагать заранее разрыв последовательности рассуждений. Когда нейронная сеть уже получила объем обучающих данных и как будто готова к работе, придется думать над тем, как построить свой человеческий алгоритм с учетом ограничения контекстного окна. Современные нейронные сети имеют контекстное окно, обычно составляющее несколько десятков тысяч токенов (порядка 80 страниц текста). Это означает, что модель одновременно «видит» только ограниченную часть данных (в том числе запросов и промтов), что препятствует анализу больших документов, сложных задач или длительных процессов, требующих учета всей истории. В целом у пользователя это создает впечатление, что у сетки нет времени — ни физического, ни логического, поскольку из-за обрыва контекста она не помнит своих шагов, теряет важные детали и в целом логику. Это особенно критично для задач, где требуется понимать взаимосвязи на длинных временных интервалах или в сложных иерархических структурах данных. Нейросети отлично справляются с задачами на короткие промежутки (например, ответить на конкретный запрос), но неспособны выполнять длинную аналитическую или исследовательскую работу с многими логическими ходами.
Пользователь должен обдумать свои задачи и так их разложить, чтобы вписать в это небольшое окно связности работы. А есть ли вообще в организации задачи, которые решаются ассоциативным типом мышления? И можно ли слишком большие задачи увидеть как набор маленьких, на которых эффекты не так заметны? На заре цифровой эпохи такую работу проделали с вычислением логарифма — необходимость разложения мышления на отдельные шаги остается актуальной и в эпоху ИИ.
Контекстное окно нейронных сетей со временем будет увеличиваться, но для ассоциативного типа мышления по его природе свойственно терять логическую и временную связь. Проблема останется и в гибридных системах. Никакой комбинацией логических и коннекционистских (нейронных) систем ее не решить принципиально. А других уже работающих пока нет.
Предполагать заранее то, что ошибка не будет отработана самим ИИ, как бы его ни обучали. Нейронные сети не могут самостоятельно «понять», что они допустили ошибку. Если в данных или запросах есть ошибка, модель не сможет ее выявить без вмешательства человека. Модели не обладают внутренними механизмами проверки своих выводов. Если в процессе выполнения задачи нейросеть совершает логическую или содержательную ошибку, она не пересматривает свои действия. Эта система не думает в полном смысле слова, а ассоциации не бывают ложными. Статус лжи они получают только при столкновении с практикой, которой у машины нет. При этом выявить ошибку будет значительно сложнее, чем в привычной системе. Ловля багов превратится в настоящее расследование с допросами и следственными экспериментами. Оптимизма в данном случае добавляет лишь тот факт, что нейронная сеть в целом не жесткая система и ошибка в одной задаче не обязательно приводит к отказу всей системы. Это позволяет изолировать проблемы и минимизировать их влияние на общую работу. А думать придется о том, как по-новому относиться к ошибкам работы искусственной части человеко-машинной системы. И это не просто — поменять свое отношение к уже привычной роли машины.
Преодолеть недостаток компетенций. Смена мышления руководителя, которому придется научиться видеть новую роль гуманитариев, умеющих работать через промты, креативные тексты и подбор обучающих примеров; мыслящих рефлексивно; прекрасно проводящих переговоры и пр. Придется думать, где их искать или где и как учить.
Удерживать во внимании, что в ИИ будет теряться связь данных с деятельностью. Нейронные сети не понимают контекст деятельности и целей пользователя, а люди, в свою очередь, теряют инструменты для осмысления работы алгоритмов в машине.
Об этой сложности стоит поговорить подробнее.
Новый этап размышлений о деятельности
Упомянутый в начале факт старта вообще всех вычислительных систем с анализа деятельности человека задает общий принцип — прежде чем что-либо автоматизировать, необходимо провести новое описание деятельности. Сама по себе эта тема предполагает размышление, как минимум, над несколькими вопросами.
Как вообще внутри своей компании выявлять единицы деятельности? В подавляющем числе случаев эта работа не проведена. Никакие имеющиеся должностные инструкции, регламенты, юридические документы, схемы управленческой структуры и подразделений этого не обеспечивают. Даже для уже работающих машин и механизмов несколько веков велись споры, что именно считать в них узлами и как описать механизм как систему. Это было необходимо для облегчения конструирования новых машин. И решения вовсе не были очевидными, как это может показаться сейчас.
При описании не просто машин, а именно деятельности задача в разы усложняется, поскольку наше мышление, если оно не достаточно четкое, будет «нарезать» деятельность в произвольном и бессмысленном порядке. С этим регулярно сталкивались и предыдущие поколения автоматизаторов. Но в логической парадигме сами цифровые машины навязывали очень жесткие нормы, которые в некотором смысле помогали мыслить человеку. И слишком вольные описания деятельности быстро форматировались и переделывались под влиянием машин, иногда с ущербом для самой деятельности. Для человеко-машинных систем приходилось продумывать особую методологию, защищающую деятельность от излишней жесткости [8].
Коннекционистская парадигма, наоборот, слишком гибкая, но при этом в ней самой не появилась работа со смыслами, которая бы помогала человеку описывать деятельность, чтобы можно было полноценно опереться на понимание смысла со стороны машины. Ассоциативные связи не могут моделировать структуру знания, обсуждаемую психологическими, педагогическими, менеджерскими и философскими школами. В первую очередь потому, что в нейронной сети нет рефлексии. А человеческое знание, напротив, — это рефлексия особого типа. В логических системах рефлексия также невозможна по самому их устройству [9, 10]. Безусловно, можно написать программный код, который по заранее указанным параметрам выполняет похожую структуру, или написать рефлексивные тексты для загрузки в нейронную сеть. Но это будет рефлексия не машины, а превентивная, прогностическая, сценарная рефлексия эксперта, архитектора программной системы или тренера нейронной сети. На что это влияет? На невозможность напрямую перевести знания из деятельности в любой сегодняшний ИИ. Они просто имеют разную природу. И это имеет непосредственное отношение к тому, что человеку еще больше придется думать о деятельности. Получается, что ИИ сам рефлексии не имеет, но для своей успешной работы в человеко-машинной системе требует этого от человека.
Безусловно, это очень полезно, не зря про это говорили отцы-основатели: ИИ — это исследование собственно человека. И не получится избежать этой интеллектуальной работы. Просто у некоторых компаний экономика не срастется — все это требует денег и времени, которые могут не быстро окупиться от установки ИИ на рабочие места.
Подумать — стоит ли вообще связываться с ИИ
Машины взяли на себя несколько функций мышления — логику и ассоциации. При этом эти две интеллектуальные функции существенно усилены и продолжают усиливаться. А вот другие функции мышления — нет [3]. Этот независящий от человека процесс ставит три вопроса.
Какие функции мышления используются человеком в каждой конкретной деятельности?
Не получится ли, что человеко-машинная в целом система будет разбалансирована из-за усиления машиной только отдельных функций интеллекта?
Что делать, если вся человеко-машинная система при усилении с помощью ИИ отдельных интеллектуальных функций все-таки потеряет нужное качество работы?
Избежать этих вопросов о судьбах ИИ можно просто — отказаться от внесения искусственного интеллекта в свою деятельность и подождать, пока другие наберут опыт, а затем можно у них научиться. Это нормальная стратегия, если специфика деятельности компании еще позволяет подождать. Не всех это устроит.
***
Компаниям, которые видят в ИИ новые возможности для своей экономики, придется учитывать и расходы на рефлексию деятельности. Кроме денег, плата за вход в мир ИИ — это необходимость усиливать свои собственные интеллектуальные функции. Иначе пользователи окажутся заложниками моделей мышления, которые вложены в ИИ, в структуры данных и в способы работы с ними. Хотя в долгих и увлекательных беседах с нейронными сетями это будет заметно не сразу.
Литература
1. Анна Елашкина, Александр Нечипоренко. В поисках новой «Большой Штуки» // Открытые системы.СУБД. — 2008. — № 5. — С. 66–69. URL: https://www.osp.ru/os/2008/05/5205691 (дата обращения: 31.12.2024).
2. БКС Мир инвестиций. Технологии, меняющие мир. Что такое The Next Big Thing. БКС Экспресс, 19 января 2023. URL: https://bcs-express.ru/novosti-i-analitika/tekhnologii-meniaiushchie-mir-chto-takoe-the-next-big-thing (дата обращения: 09.12.2024).
3. Щедровицкий П. Курс «Может ли машина мыслить?» // URL: https://shchedrovitskiy.com/school-of-methodology-2024/?ysclid=m4dxfr4ok8233432181 (дата обращения: 07.12.2024).
4. Основные методы при создании искусственного интеллекта // Развитие науки: интернет-журнал. — URL: https://v-nayke.ru/?p=14782 (дата обращения: 06.12.2024)
5. Пасквинелли М. Измерять и навязывать. Социальная история искусственногоинтеллекта / Пер. с англ. И. Напреенко. — «Индивидуум Принт», 2024.
6. H. Sheikh, C. Prins, E. Schrijvers. Mission AI: The New System Technology // Research for Policy. — Springer, 2023. — 410 p. [стр. 36] — URL: https://link.springer.com/chapter/10.1007/978-3-031-21448-6_2 (дата обращения: 09.12.2024).
7. Леонид Черняк. От данных к информации // Открытые системы. СУБД. — 2006. — № 2. — URL: https://www.osp.ru/os/2006/02/2104234/ (дата обращения: 07.12.2024).
8. Михаил Елашкин, М. Строим эффективный бизнес. SAP Business One. — М., 2007. — 236 с.
9. Анна Елашкина. Как кибернетика разошлась с диалектикой // Открытые системы. СУБД. — 2006. — № 09. — С. 72–74. URL: https://www.osp.ru/os/2006/09/3776514 (дата обращения: 31.12.2024).
10. D. Hofstadter. I Am a Strange Loop // Basic Books, 2007. — URL: https://archive.org/details/iamstrangeloop0000hofs (дата обращения: 07.12.2024).
Анна Елашкина (Elashkina.anna@gmail.com) — независимый эксперт (Москва).
DOI: 10.51793/OS.2024.81.42.002