В платформе Azure AI Content Safety реализована новая функция под названием «коррекция», которая позволяет не только выявлять  необоснованную информацию, содержащуюся в ответах больших языковых моделей (или в любых других текстах), но и исправлять ее.

В марте 2024 года Microsoft реализовала в Azure AI возможность проверки «обоснованности» утверждений в любом заданном тексте. Для этого модель GPT-4 может сверять текст не только со своими знаниями, но и с другими источниками информации, предоставленными пользователем через соответствующие интерфейсы. Модель находила утверждения, не подкрепленные сведениями из источников, и могла объяснить, почему считает их необоснованными, но до сих пор не умела исправлять их. С функцией «коррекции» платформа автоматически делает новый запрос к модели. Если в источниках есть нужная информация, модель исправит текст, опираясь на источник, и пользователь получит уже исправленный ответ.

Проблема «галлюцинаций» остается одной из самых важных в области генеративного искусственного интеллекта, отмечают эксперты. Полностью устранить их пока не удалось ни одной компании.