Фото: Екатерина Волкова, CC BY-SA 2.0

Внедрению «умных систем» препятствует недостаток доверия к искусственному интеллекту
07.09.2020

Первый закон робототехники по Айзеку Азимову гласит, что робот не может причинить вред человеку. Создатели робомобилей и других автономных систем помнят об этом и ищут инструменты, которые предупреждали бы человека о необходимости взять управление на себя.

Одним из главных препятствий на пути внедрения новых технологий сегодня является отсутствие доверия к искусственному интеллекту. Исследователи ставят своей целью создать инструментарий, который автоматически формировал бы индикаторы того, что алгоритмы искусственного интеллекта заслуживают доверия. Нейронные сети – популярная сегодня разновидность искусственного интеллекта, моделирующего работу мозга и генерирующего прогнозы. Но можно ли доверять таким прогнозам?

В России, как и в других странах, активно развиваются технологии робомобилей; нынешним летом их тестировали уже в 13 регионах страны. Однако пока во время всех этих испытаний инженер должен сидеть за рулем. Как рассказали газете «Ведомости» в рабочей группе «Автонет», отечественные разработчики, за исключением «Яндекса», еще технически не готовы выезжать на дорогу без водителя. Между тем, испытания беспилотных авто без водителя — ключевой этап в процессе их внедрения.

Одна из причин, мешающих внедрению самоуправляемых автомобилей, заключается в том, что транспортные средства должны быстро распознавать объекты на дороге – будь то лежачий полицейский, неодушевленный предмет, домашнее животное, ребенок или другой автомобиль – и принимать решение, как действовать. Но можем ли мы доверять программному обеспечению транспортных средств в условиях, когда на вход системы поступает противоречивая информация с камер и радаров? Знание того, каким средствам можно доверять и какие датчики предоставляют наиболее точные сведения, способствовало бы принятию более взвешенных решений.

В определенных ситуациях даже люди проявляют порой нерешительность. Почему же машины не информируют нас о возникающих противоречиях? Инструментарий DeepTrust, разработанный учеными из Университета Южной Калифорнии, позволяет количественно оценить величину неопределенности и необходимость вмешательства со стороны человека. На его разработку у команды, использующей для оценки архитектуры нейронных сетей методы субъективной логики, ушло два года. Оказалось, предложенный механизм дает ответ на вопрос, как проверить надежность алгоритмов искусственного интеллекта, обучаемых на тысячах и миллионах элементов данных. Однако проверка правильности всех этих элементов займет невероятно много времени. Гораздо важнее сделать так, чтобы архитектура нейронных сетей позволяла получать более точные результаты в условиях неопределенности. Для тех, кто желает повысить точность и уровень доверия одновременно, работа исследователей может служить ориентиром в отношении того, сколько «шума» присутствует в тестовых образцах, а предложенный подход обладает достаточным потенциалом для того, чтобы сделать искусственный интеллект более «осведомленным и адаптивным».

Больше информации об интересных событиях, тенденциях и фактах в сфере цифровой экономики, мнений экспертов, а главное — ярких рассказов о решениях на основе данных в социальной сфере, здравоохранении, культуре, образовании, благотворительной и волонтерской деятельности, читайте в новом проекте «DobroData. Данные на службе добра». Пусть тех, кто умеет делать мир лучше, станет больше! Возрастная маркировка: 12+