Компания OpenAI до конца 2025 года планирует внедрить меры безопасности для подростков и людей в эмоциональном стрессе, улучшив распознавание признаков психического и эмоционального расстройства и корректно реагируя на них. Родители подростков смогут получать уведомления, если система обнаружит, что подросток находится в трудном положении.
Не секрет, что ChatGPT не всегда адекватно реагирует на запросы людей с суицидальными намерениями или планирующих насилие, что вызывает критику. В настоящее время система направляет таких пользователей на горячие линии, но не передает случаи в правоохранительные органы из-за соображений конфиденциальности. Между тем, люди часто ищут в чат-боте собеседника, когда находятся в трудной жизненной ситуации, но не находят ответственной и профессиональной поддержки. Наряду с этим, в OpenAI признали еще одну проблему, связанную с ложными и абсурдными утверждениями ИИ, которые могут вредить пользователям, и пообещали ограничить советы по важным личным вопросам.
Чтобы найти решение этих проблем, разработчик ChatGPT объявил о формировании совета экспертов по развитию молодежи, психическому здоровью и взаимодействию человека и компьютера.