Стартап из Сан-Франциско OpenAI запустил ChatGPT 30 ноября 2022 года. Средства искусственного интеллекта с возможностями прогнозирования и интерпретации применялись на тот момент уже достаточно давно, но ИИ, способный «осмысленно» общаться и не только, стал настоящей революцией.

ChatGPT реализован на базе большой языковой модели GPT (generative pre-trained transformer, «генеративный предварительно обученный трансформер») — алгоритма, способного предсказывать очередное слово в последовательности.

По сведениям Gartner, на большинстве предприятий все еще лишь экспериментируют со средствами генеративного ИИ, оценивая их потенциальную окупаемость и области применения. На сегодня существует AutoGPT — агент с ИИ на основе модели GPT-4, который способен автоматически выполнять различные задачи, получив их описание на естественном языке. По данным Clarity Capital, чаще всего с помощью AutoGPT автоматизируют ввод и обработку данных, типовые административные функции, а также базовые задачи создания контента, клиентской поддержки, формирования отчетов, бухгалтерии и др. Примерно тот же перечень задач руководители предприятий называют в числе обязанностей, которые, по их мнению, со временем перейдут от людей к средствам ИИ.

Между тем, специалисты говорят о ChatGPT и подобных платформах, как о сильно незрелых и имеющих множество недостатков. Не так давно в австралийском сенате при содействии чатбота Google Bard подготовили отчет об индустрии консалтинга, в котором упоминались несуществующие скандалы с участием компании KPMG. В последней в результате вынуждены были подать официальную жалобу в правительство. Специалисты сетуют на то, что вместо устранения проблем разработчики систем генеративного ИИ сосредоточились на скорейшем совершенствовании их возможностей.

Большие языковые модели, лежащие в основе интеллектуальных чатботов, обвиняют в «поглощении» защищенных авторским правом художественных произведений, книг и видеозаписей, которые используются для обучения этих систем. Джордж Мартин, автор книг, положенных в основу сериала «Игра престолов», и еще 16 представителей творческого цеха подали на OpenAI в суд за использование их работ в GPT без разрешения.

Бороться с нарушением прав авторам помогают ученые: чтобы помешать большим языковым моделям обучаться на художественных работах, был создан инструмент «отравления» учебных данных Nightshade, который вносит в изображение не видимые глазу изменения, в результате чего модель распознает картинку неверно.

У ChatGPT и аналогов обнаружена скрытая предвзятость: проверив чатбот, в Принстонском университете выяснили, что он предполагает пол представителей различных профессий мужским, даже если отсутствуют местоимения, позволяющие установить точный вариант. Поскольку предвзятость может приводить к ошибкам при работе автоматизированных платформ найма, власти в некоторых странах разрабатывают законы, требующие проверять такие платформы на систематические ошибки.

Многие скептически смотрят на представление о том, что генеративный ИИ оставит без работы массу людей: специалисты считают, что без контроля человека результатами работы ИИ пользоваться нельзя, и что в целом стоит относиться к новшеству как к очередному полезному инструменту, который повышает продуктивность интеллектуального труда, и который необходимо осваивать.

По данным Lightcast, на протяжении последнего года количество вакансий, в описании которых упоминается генеративный ИИ, росло по экспоненте. В их число вошли позиции исследователя данных, инженера машинного обучения, составителя планов обучения, разработчика ПО, научного сотрудника, инженера ИИ и др. Благодаря развитию ИИ появляются совсем новые должности: специалист по этике ИИ, специалист по отбору учебных данных, юрист по вопросам ИИ, инженер запросов и т. д.

Мало кто ожидал, что чатботы с ИИ смогут писать работоспособный код. По сведениям Microsoft, ее инструмент Copilot на основе ChatGPT ускоряет создание кода на 55%, и больше половины всего кода, который сегодня вносят в репозитории GitHub, разрабатывается с помощью ИИ. Подобные средства автоматизации ускоряют ревизию кода, контроль комментариев, обеспечение безопасности и др. Специалисты однако считают, что код, в создании которого участвовал ИИ, необходимо как-то помечать и проверять вручную. Помимо синтеза кода генеративный ИИ начинают активно применять в автоматизации тестирования и обеспечения качества ПО.

Специалисты подчеркивают, что в ближайшие несколько лет необходимо будет добиться значительного уменьшения частоты «галлюцинаций» и иных нежелательных ответов ИИ, чтобы в организациях могли без опасений применять подобные системы в бизнес-процессах. Вероятно, появятся новые инструменты для скрининга подозрительных ответов и передачи их людям на проверку. При этом прогнозируется, что возможности «понимания» и обработки разных типов данных средствами генеративного ИИ сильно расширятся.

Помимо восхищения возможностями больших языковых моделей в индустрии ИТ и научном сообществе стали высказывать опасения о том, что появление чатботов с искусственным интеллектом — «начало конца человечества». Было опубликовано открытое письмо о связанных с ИИ рисках, под которым поставили подписи многие знаменитости мира ИТ, в том числе сооснователь Apple Стив Возняк, директор по технологиям Microsoft Кевин Скотт и даже глава (теперь уже бывший) самой OpenAI Сэм Альтман. Они призывали к приостановке разработки чатботов — паузы не последовало, но в некоторых странах начали разрабатывать законы, регламентирующие ИИ и работу с ним.

Беспокойство в обществе вызывает возможность появления «самосознания» у ИИ, когда машина сможет «мыслить» самостоятельно без ввода данных человеком. Существуют прогнозы о том, что ИИ начнет реагировать на переживания подобно человеку уже в ближайшем будущем, по мере роста количества пользователей. И если сейчас ИИ не отвечает на определенные вопросы, будучи соответственно запрограммированным, то со временем, по мнению некоторых, его развитие достигнет такого уровня, когда он сам начнет решать, в каких случаях уместно дать ответ. В какой-то момент человек больше не сможет контролировать ИИ, если не отключит его, полагают пессимисты.