Специалисты исследовательского подразделения IBM, работающие в рамках проекта Trusted AI, выпустили в открытых кодах три инструментария для Python, помогающих избавлять модели машинного обучения от систематических ошибок.
Самый новый из них, AI Explainability 360, реализует алгоритмы, помогающие объяснять решения, принятые моделью машинного обучения. Доступны алгоритмы для моделей, применяемых в финансовой отрасли, а также в сферах кадрового управления, образования и здравоохранения.
Вышедший ранее инструментарий AI Fairness 360 подсчитывает ряд показателей, позволяющих проверять обучающие наборы данных на предвзятость и содержит алгоритмы, помогающие избавляться от систематических ошибок.
Третий инструментарий, Adversarial Robustness Toolbox, представляет собой библиотеку Python для защиты глубоких нейронных сетей от атак, которые основаны на преднамеренном включении в набор данных информации, направленной на получение желательного для злоумышленника результата.
Все инструментарии Trusted AI доступны на сайте GitHub.