Национальный институт стандартов и технологий США (NIST) выпустил программную платформу с открытым исходным кодом Dioptra, предназначенную для испытаний систем искусственного интеллекта. Атаки на современные алгоритмы и модели машинного обучения и искусственного интеллекта отличаются большим разнообразием и сложностью предсказания результатов. Злоумышленники могут пытаться исказить данные для обучения модели, манипулировать входными данными или извлекать из обученной модели сведения об исходных данных, позволяющие воссоздать модель. Инструменты, входящие в состав платформы Dioptra, помогают организовать процесс испытаний модели, вести журналы экспериментов и взаимодействовать с разными моделями и наборами данных. Кроме того, NIST опубликовал несколько документов с рекомендациями о разработке систем искусственного интеллекта. Эти рекомендации помогут защитить модель от использования ее с целью причинения вреда — например, для разработки биологического оружия или проведения кибератак.