Исследование, проведенное в Цюрихском университете (Швейцария), выявило потенциальные риски и преимущества моделей искусственного интеллекта, в частности GPT-3, в создании и распространении (дез)информации. В исследовании, в котором приняли участие 697 участников, оценивалось, могут ли люди отличить дезинформацию от правдивой информации, представленной в виде твитов. Кроме того, исследователи пытались определить, могут ли участники различить, был ли твит написан настоящим пользователем Twitter или сгенерирован моделью GPT-3. Тестовые вопросы касались изменения климата, безопасности вакцин, пандемии COVID-19, теории плоской Земли и гомеопатических методов лечения рака.
С одной стороны, GPT-3 продемонстрировала способность генерировать точную и более понятную информацию по сравнению с твитами настоящих пользователей Twitter. Однако также обнаружилось, что ИИ обладает удивительной способностью создавать исключительно убедительную дезинформацию. Что более тревожно, участники исследования не могли надежно отличить твиты, созданные GPT-3, от тех, которые написали настоящие пользователи Twitter.
Эти результаты говорят о том, что информационные кампании, созданные GPT-3 на основе хорошо структурированных подсказок и оцениваемые обученными людьми, могут оказаться более эффективными, например, в случае кризиса общественного здравоохранения, требующего быстрой и ясной коммуникации с общественностью. Однако эти результаты также вызывают серьезные опасения относительно угрозы, которую представляет ИИ в распространении дезинформации, особенно в контексте быстрой и широкомасштабной дезинформации во время кризиса или чрезвычайной ситуации в сфере общественного здравоохранения. Системы на основе ИИ могут быть использованы для организации крупномасштабных кампаний по дезинформации по любой теме, подвергая опасности не только общественное здоровье, но и целостность информационных экосистем, необходимых для функционирования демократического общества.
Поскольку влияние ИИ на создание и оценку информации становится все более заметным, исследователи призывают законодателей принимать строгие, основанные на доказательствах и этически обоснованные юридические нормы, чтобы справиться с потенциальными угрозами, которые несут эти новаторские технологии, и обеспечить ответственное использование ИИ в формировании коллективного знания и благополучия в цифровую эпоху.