Компания Trend Micro, Европол и Межрегиональный Научно-исследовательский институт ООН по вопросам преступности и правосудия (ЮНИКРИ) подготовили совместный доклад, посвященный использованию искусственного интеллекта в противозаконных действиях «Эксплуатация ИИ: как киберпреступники используют возможности искусственного интеллекта и машинного обучения и злоупотребляют ими» (“Exploiting AI: How Cybercriminals Misuse and Abuse AI and ML”). В докладе описаны существующие сценарии использования ИИ в преступных целях, возможные варианты развития инструментов киберпреступников в будущем, а также методы борьбы с ними, которые будут полезны представителям правоохранительных органов, правительственных и других организаций.
«ИИ способен помочь миру повысить эффективность процессов в самых различных областях, уровень их автоматизации и общей автономности. Сейчас общественность все больше беспокоят сценарии неправомерного использования ИИ, поэтому мы должны открыто говорить о возможных угрозах, но и не забывать при этом о потенциальных преимуществах технологий искусственного интеллекта, — отметил Эдвардас Шилерис (Edvardas Šileris), глава Центра по борьбе с киберпреступностью, входящего в состав Европола. — Этот доклад дает нам возможность предвидеть возможные злоупотребления ИИ и методы его применения в противозаконных целях, а также своевременно предотвращать эти угрозы. Только так мы сможем полностью раскрыть потенциал технологии и извлечь выгоду из её внедрения в мире».
В отчете говорится о том, что киберпреступники будут использовать ИИ и как вектор, и как поверхность атаки. В настоящее время дипфейки (Deep Fakes) остаются наиболее известным сценарием применения ИИ в качестве вектора атаки. Однако, по мнению авторов доклада, в будущем потребуются новые технологии проверки данных, которые помогут бороться с кампаниями дезинформации и попытками вымогательства, а также угрозами, нацеленными непосредственно на массивы данных ИИ.
Вот всего несколько примеров использования ИИ в преступных целях:
- крупномасштабные и правдоподобные атаки с использованием социальной инженерии;
- вредоносное ПО для уничтожения документов, которое повышает эффективность атак киберпреступников;
- обман систем распознавания изображений и голоса;
- помощь в поиске целей и уклонении от систем защиты при атаках с применением программ-вымогателей;
- «загрязнение» массивов данных за счёт выявления слепых зон в правилах обнаружения.
«Применение ИИ начинает оказывать вполне реальное влияние на наш мир, и становится ясно, что эта технология станет одной из фундаментальных в будущем человечества, — отметил Ираклий Беридзе (Irakli Beridze), руководитель Центра ИИ и робототехники ЮНИКРИ. — Однако угроза злонамеренного использования ИИ не менее реальна для общества, чем польза от его применения. Для нас большая честь работать с Европолом и компанией Trend Micro и совместно пролить свет на “темную сторону” технологий искусственного интеллекта, чтобы стимулировать дальнейшее обсуждение этой важной темы».
В докладе также говорится о том, что уже сейчас разрабатываются системы на базе ИИ, которые должны повысить эффективность вредоносного ПО и препятствовать работе антивирусов и технологий распознавания лиц.
«Киберпреступники всегда первыми внедряли новейшие технологии, и ИИ не исключение. В нашем докладе говорится, что ИИ уже используется для подбора паролей, взлома CAPTCHA и клонирования голоса, а в разработке находится еще немало инновационных инструментов, — отметил Мартин Рёслер (Martin Roesler), руководитель подразделения Trend Micro по исследованию перспектив развития угроз. — Мы гордимся тем, что объединили усилия с Европолом и ЮНИКРИ, чтобы повысить осведомленность об этих угрозах и помочь в создании безопасного цифрового будущего для человечества».
В завершение доклада авторы дают несколько рекомендаций:
- Потенциал технологий искусственного интеллекта необходимо использовать в качестве инструмента борьбы с киберпреступностью, чтобы защитить индустрию ИТ-безопасности и правоохранительные органы в будущем.
- Необходимо продолжать исследования, которые помогут развивать технологии кибербезопасности.
- Также необходимо популяризировать и разрабатывать безопасные среды проектирования ИИ.
- Политическую риторику об использовании ИИ в целях кибербезопасности стоит минимизировать.
- Рекомендуется активно использовать государственно-частное партнёрство и создавать мультидисциплинарные экспертные группы.