До 90% проектов внедрения искусственного интеллекта в мире остаются на стадии пилотов, и Россия не исключение. Причина не в дефиците технологий — модели становятся доступнее, вычислительных мощностей достаточно, а в отсутствии системного подхода к управлению данными и комплексной стратегии внедрения ИИ [1]. Без единой политики в этой области масштабирование соответствующих решений невозможно — инвестиции не окупятся, а ожидания от результатов ИИ не оправдаются. Из инструмента роста ИИ превратится в источник разочарования.

Итоги пяти лет ИИ-экспериментов

За пять лет внедрения искусственного интеллекта в корпоративном секторе прошло несколько этапов.

В 2021–2024 годах рынок переживал период гиперспроса. Компании активно запускали пилоты, появлялись стартапы, а главной тенденцией стали генеративные модели. Характерная черта этого этапа — отсутствие единой стратегии: инвестиции направлялись преимущественно в эксперименты, тогда как долгосрочные цели и оценка готовности инфраструктуры оставались за скобками.

К концу 2025 года стало очевидно, что даже успешные на локальных тестах решения невозможно масштабировать — они либо не давали измеримого эффекта, либо не интегрировались в операционные процессы.

Как итог, согласно отчетам исследовательских институтов и консалтинговых агентств, таких как МТИ, Gartner и BCG, пять лет ИИ-экспериментов сегодня выглядят так:

  • до 90% пилотов признаны неуспешными;
  • только 20% компаний добились значимых результатов в пилотах;
  • лишь 5% из них смогли масштабировать решения на всю организацию.

Проблема носит системный характер и не уникальна для отдельных стран или отраслей. Но у этого опыта есть и положительная сторона — массив неудач позволил проанализировать, что именно мешает масштабированию ИИ. В отчете PEX Report 2025/26 перечислены основные барьеры на пути ИИ.

  • Сопротивление изменениям (30% респондентов исследования). Организационная инертность и неготовность бизнеса встраивать ИИ в операционные процессы становятся существенным сдерживающим фактором.
  • Регуляторные и законодательные ограничения (31% респондентов). Требования информационной безопасности и отсутствие четких политик управления ИИ (менее половины компаний сегодня имеют такие политики) не позволяют выводить решения в промышленную эксплуатацию.
  • Дефицит внутренней экспертизы (49% респондентов). Нехватка профильных кадров и недостаток компетенций тормозят внедрение даже успешных в пилоте решений.
  • Проблемы с качеством и доступностью данных (52% респондентов). Именно данные остаются главным препятствием — компании сталкиваются с отсутствием необходимых данных для обучения моделей либо с их несоответствием требованиям по полноте и достоверности.

Все эти барьеры на первый взгляд выглядят разрозненными, но на практике имеют общий корень — отсутствие системной архитектуры управления данными и ИИ-инициативами. И хотя о качестве и доступности данных говорят давно — этой теме посвящены конференции, разработаны методологии и регламенты, но именно при переходе к промышленному использованию ИИ она все еще остается ключевым препятствием для большинства компаний, внедряющих ИИ в свои процессы.

Как качество данных влияет на ИИ — и наоборот

Появление генеративного ИИ в разы ускорило работу с информацией, сделав ее доступной любому пользователю. Если раньше аналитические модели строились группой специалистов на ограниченных наборах структурированных данных, то теперь каждый сотрудник может взаимодействовать с мощными моделями на естественном языке, мгновенно получая результат. Искусственный интеллект становится повседневным рабочим инструментом сотрудников разных функций, что многократно увеличивает требования к управлению доступом, контролю источников данных и прозрачности работы моделей.

Однако у этой доступности есть обратная сторона — чем шире круг пользователей и чем разнообразнее данные, используемые в модели, тем выше вероятность искажений на входе. Например, команда запускает пилотную модель для прогнозирования спроса и получает точность выше 80%. Но при попытке масштабировать решение выясняется, что данные по регионам собираются по разным правилам, часть показателей хранится в Excel, а доступ к историческим данным ограничен требованиями информационной безопасности. В результате модель, успешно работавшая лишь в пилоте, неприменима в промышленном контуре.

Если раньше нерелевантные данные вели лишь к искажению отчетности, которое можно было заметить и поправить вручную, то теперь, с появлением таких решений, как автономные ИИ-агенты, цена ошибки многократно возрастает. Модели, обученные на нерепрезентативных и/или неочищенных данных, начинают «домысливать» несуществующие закономерности. Это приводит к ошибочным управленческим и стратегическим решениям, которые, однако, внешне выглядят обоснованными.

Искусственный интеллект — не просто потребитель качественных данных, а динамическая система, которая сама генерирует новые данные, решения и тем самым порождает риски, новые требования и вызовы, с которыми рынок ранее не сталкивался. Добавляются и принципиально новые типы угроз:

  • непрозрачность происхождения информации не позволяет отследить источники выводов ИИ;
  • утечки конфиденциальных данных становятся возможными не только через обучающие выборки, но и через казалось бы безобидные промпты пользователей;
  • бизнесу требуется предоставить широкому кругу сотрудников доступ к надежным данным, не потеряв при этом контроль над конфиденциальной информацией.

В таких условиях управление данными вынуждено эволюционировать быстрее — старых методов контроля «на входе» уже недостаточно, растет потребность именно в непрерывном управлении качеством на протяжении всего их жизненного цикла.

От качества данных — к качеству ИИ-решений

Еще совсем недавно качество данных регламентировалось классической дисциплиной Data Governance решения задачи обеспечения гарантированного качества данных на входе в аналитические системы. Полнота, точность, своевременность — этих метрик хватало, чтобы привести в порядок «сырье» для отчетности и аналитики. Качество воспринималось как статический параметр, который было достаточно проверить один раз. Четкие правила на входе, контроль форматов, проверка полноты и своевременности закрывали почти все потребности бизнеса.

Однако с появлением генеративного ИИ стало очевидно — классического Data Governance больше недостаточно. Управлять только данными — значит управлять лишь половиной системы. В реальности компаниям приходится управлять экосистемой данных, моделей и бизнес-процессов, которые постоянно взаимодействуют друг с другом. Все риски ИИ возникают не на входе, а в процессе этого взаимодействия. Данные могут быть идеально чистыми, полными и структурированными, но на выходе модель все равно сгенерирует ошибочное решение — из-за ложной корреляции, неверной интерпретации или просто потому, что контекст использования оказался не тем, на котором обучали модель.

В эпоху ИИ данные и модели перестали существовать отдельно. Решения на базе ИИ не просто потребляют информацию — они создают новые данные, влияют на их интерпретацию и порождают риски на стыке алгоритмов и информации. Управлять данными в отрыве от модели бессмысленно.

Особенно остро это проявляется при попытке масштабирования. Представим, что успешный пилотный кейс протестирован, результат удовлетворительный и компания решает масштабировать решение на все процессы. И тут возникают вопросы, которые классический Data Governance не закрывает.

  • Как масштабировать и поддерживать десятки AI- и ML-моделей? Как контролировать качество результатов на масштабе?
  • Совет директоров спрашивает: как избежать катастрофических рисков для репутации и бизнеса?
  • Служба безопасности не дает доступа к данным: решены ли вопросы с маскированием? Защищены ли AI-решения от утечек?
  • Бизнес спрашивает: можно ли доверять результатам?

Все эти вопросы выходят за рамки статического управления данными. Уже недостаточно говорить только про сбор, обработку, хранение и визуализацию. При переходе к промышленному использованию ИИ на повестку выходят новые направления, требующие системного внимания:

  • стратегия и политика управления ИИ: определение целей, принципов и границ применения технологии;
  • информационная безопасность и защита данных: контроль утечек, маскирование чувствительной информации, безопасность промптов;
  • организационная модель и компетенции: распределение ролей, формирование центров компетенций, развитие команды;
  • управление рисками и контроль: идентификация, оценка и минимизация рисков, связанных с работой моделей;
  • методология внедрения и оценки эффективности: стандартизация подходов к разработке, тестированию и валидации ИИ-решений;
  • регуляторика и нормативное обеспечение: соответствие внешним требованиям и внутренним политикам;
  • метрики и отчетность: прозрачность результатов, измеримость эффекта для бизнеса.

Когда компания выстраивает работу по каждому из этих направлений, она получает качественную архитектуру и прозрачные процессы работы с ИИ — подход AI Governance, охватывающий весь жизненный цикл ИИ-решений: от бизнес-гипотезы до вывода модели в промышленную эксплуатацию и организации ее мониторинга. В фокусе AI Governance оказываются вопросы, которые ранее оставались за рамками классических практик. Например, управление рисками — кто несет ответственность, если ИИ выдал рекомендацию, противоречащую закону или нанесшую ущерб? Почему было принято именно такое решение и можно ли его объяснить регулятору?

Когда управление данными достигает зрелости, ИИ из источника рисков превращается в инструмент создания ценности. Модели начинают работать на качество данных: генерировать синтетические выборки там, где не хватает реальных или нужно скрыть чувствительную информацию; автоматически вести бизнес-глоссарии и описания данных; выявлять смысловые аномалии, которые не ловятся классическими правилами проверки; участвовать в нормализации и маскировании данных. По сути, возникает замкнутый контур: на базе качественных данных выстраиваются надежные модели, которые затем помогают поддерживать это качество в масштабах, недоступных ручному труду.

***

Без единых правил каждая новая ИИ-инициатива в компании обречена наступать на одни и те же грабли: заново получать доступ к данным, проходить согласования со службой информационной безопасности, решать юридические коллизии. Вместо фокуса на бизнес-задачах и создании прикладной ценности команды обречена на бесконечное преодоление инфраструктурных и политических барьеров. В компаниях, которым удалось масштабировать ИИ, эта проблема решается через формирование отдельной операционной модели работы с ИИ-инициативами. Она включает центр компетенций, стандартизированные процессы разработки моделей, единые правила доступа к данным и технологическую платформу, позволяющую безопасно внедрять ИИ-решения в бизнес-процессы. На практике такой подход одновременно требует организационных изменений, выстраивания политики управления ИИ и создания технологической среды, в которой модели могут безопасно использоваться. Именно поэтому AI Governance — это не просто набор регламентов, а стратегический фундамент, определяющий не только приоритетные направления для внедрения, но и зоны, где применение ИИ недопустимо: например, контуры критической инфраструктуры и кибербезопасности, где цена ошибки катастрофична.

Компании все чаще рассматривают внедрение AI Governance не как отдельный проект, а как программу трансформации работы с данными и ИИ. Когда выстроены правила, хаос разрозненных пилотов уступает место управляемому конвейеру промышленных решений.

Литература

1. Анна Елашкина, Андрей Кукушко. Как приготовить и подать ИИ? // Открытые системы. СУБД. — 2025. — № 4. — С. 33–36. URL: https://www.osp.ru/os/2025/04/13060140 (дата обращения: 20.03.2026).

Дмитрий Красников (DKrasnikov@k2.tech) — руководитель направления Big Data & BI, компания «К2Тех» (Москва). Статья подготовлена на основе материалов выступления на конференции «Качество данных 2026».