Компания red_mad_robot разработала Daisy — ИИ-сервис для быстрого доступа к лучшим мировым LLM: GPT, DeepSeek, Claude, Gemini и другим. Решение предоставляет пользователям единый интерфейс для работы с нейросетями, в том числе написания кодов программ, текстов, создания и редактирования изображений и видео, анализа файлов, проведения глубоких исследований и многого другого. Что важно, Daisy обеспечивает интеллектуальную маршрутизацию запросов, контекстное управление и обладает встроенными механизмами безопасности. О продукте, его эволюции, сегодняшнем дне и ближайших перспективах рассказывает Валерий Ковальский, руководитель направления ИИ в компании red_mad_robot, номинант на премию Data Award.

- Расскажите, пожалуйста, как появилось ваше решение?

Проект Daisy начинался как внутренний исследовательский проект — мы создали это решение, чтобы упростить нашим сотрудникам доступ к передовым нейросетям без необходимости искать обходные пути. За полгода экспериментов и десятков тестов с фреймворками с открытым кодом решение превратилось в полноценный продукт с собственной архитектурой, после чего мы открыли его для внешнего мира. Сегодня это уже самостоятельный сервис с более чем 300 тыс. пользователей, доказавший свою жизнеспособность в реальных условиях.

- На решение каких проблем и задач ориентирован продукт?

Пользователи генеративного ИИ сталкиваются с системными проблемами: фрагментацией сервисов, сложностью выбора подходящей модели, рисками безопасности и ограниченной доступностью зарубежных решений из-за действующих ограничений. Daisy решает эти проблемы, предоставляя единое окно для доступа к лучшим мировым большим языковым моделям (LLM) с интеллектуальной маршрутизацией, встроенным контент-фильтром и сценарным взаимодействием. Это позволяет пользователям сосредоточиться на своих прикладных задачах — создании контента, написании кода, анализе данных и пр., без необходимости вникать в тонкости и особенности каждой отдельной нейросети.

- Почему вы считаете решение этой задачи действительно важным или сложным?

Это важно, потому что GenAI становится технологическим слоем для массовых цифровых продуктов, но чтобы его внедрить, требуется баланс между свободой использования, безопасностью и масштабируемостью. Сложность заключалась в построении архитектуры, которая объединяет разнородные модели (ChatGPT, Gemini, Claude и др.) в единый логичный поток, обеспечивает стабильную работу под нагрузкой и защищает пользователей. В отличие от простых «оболочек» для ChatGPT и других LLM, Daisy — это многоуровневая система с собственной оркестрацией, RAG-пайплайнами и фильтрацией на уровне смысла.

- Каковы ключевые возможности вашего решения?

Оно дает пользователям возможность работать с разными LLM в одном чате: писать тексты, генерировать код, создавать и редактировать медиаформаты, анализировать документы и проводить глубокие исследования с поиском в интернете. Среди ключевых возможностей — интеллектуальная маршрутизация запросов, модуль RAG для ответов на основе извлеченной информации, встроенный контент-фильтр, распознавание документов и генерация артефактов. И все эти функции доступны посредством единого интерфейса, что ускоряет решение сложных задач.

- На основе каких технологий или платформ реализовано решение?

Архитектура построена на базе множества написанных на Python микросервисов, которые взаимодействуют с реляционными и векторными СУБД, а также с объектным хранилищем. Инфраструктура включает локальные и облачные серверы с GPU и CPU для обработки запросов. Интеграция с внешними провайдерами API (OpenAI, Anthropic, Google и др.) обеспечивает доступ к актуальным версиям моделей, а собственный координационный сервис управляет маршрутизацией и подключением специализированных модулей.

- Какие данные использует ваша система?

Она обрабатывает пользовательские запросы, которые проходят через контент-фильтр и маршрутизацию. Для работы RAG-пайплайна используются данные из объектного хранилища: они векторизуются и сохраняются в векторной базе для семантического поиска. При включении поиска в интернете результаты также попадают в мини-RAG — так система формирует релевантные ответы. Все данные обрабатываются с соблюдением требований безопасности и защиты персональной информации.

- Какой математический аппарат встроен в ваше решение?

В основе работы с LLM лежат современные методы трансформерных архитектур и эмбеддингов для векторного представления текстов. Контент-фильтр использует подход на основе структурированного вывода (structured output), при котором модель возвращает структурированный результат с категорией нарушения и его объяснением, что позволяет точно управлять логикой фильтрации. Для RAG применяется векторный поиск по эмбеддингам, а при маршрутизации запросов используются методы классификации задач на основе контекста.

- Реализацию каких возможностей решения вы считаете наиболее интересной, удачной, впечатляющей?

Главная «фишка» продукта — это архитектура, основанная на автономных агентах (Agentic-First) и превращающая Daisy из «чата с нейросетью» в платформу для сценарного и агентного взаимодействия. У нас получилось создать единый ИИ-слой для нескольких LLM и мультимодальных моделей, дополнив его подходом «белого ярлыка» (White Label) для интеграции в крупные экосистемы. Особенно удачным оказался наш собственный контент-фильтр, работающий на уровне смысла, семантики, — он обеспечивает безопасность, не ограничивая творческие сценарии, и уже показал точность 87% с минимальными ложными срабатываниями.

- Каков портрет типичного заказчика вашего продукта?

Типичный заказчик — это крупные B2B2X-компании: операторы связи, финтех-экосистемы и цифровые платформы, стремящиеся внедрить GenAI в свои продукты для массовой аудитории. Daisy позиционируется как платформа для встраиваемых GenAI-решений. Она уже подтвердила свою эффективность в партнерстве с «Билайн»: мы интегрировали сервис в цифровую платформу «План б.», где ежемесячно обрабатываются сотни тысяч запросов, а число ежедневных уникальных пользователей (DAU) после запуска выросло в три раза.

- Что конкретно может получить ваш клиент в качестве результата работы решения?

Компания получает готовую ИИ-инфраструктуру, способную усилить пользовательский опыт, увеличить вовлеченность и открыть новые возможности для монетизации. Например, внедрение Daisy позволяет быстро запускать брендированные ИИ-продукты (как в случае с «Билайн»), масштабировать обработку запросов до миллионов обращений и, благодаря встроенному контент-фильтру, обеспечивать безопасное использование нейросетей. Результат — рост выручки компании-клиента, лояльности ее аудитории и укрепление репутации технологического лидера.

- Каковы успехи вашего решения на рынке?

Ежемесячная аудитория Daisy уже превысила 300 тыс. пользователей, а ежемесячное количество уникальных пользователей (MAU) достигло 150 тыс. Сервис обработал более 2,5 млн запросов к моделям, при этом значение показателя DAU составляет 3–5 тыс. пользователей в сутки.

Как я уже упомянул, мы заключили партнерство с «Билайн» и интегрировали Daisy в тариф «План б.» — это подтвердило устойчивость архитектуры под нагрузкой свыше 1 млн запросов. Кроме того, платные подписки уже принесли более 2,5 млн руб. выручки, при этом образовательные сценарии охватили 64% всех запросов.

Успех решения также подтвержден многочисленными упоминаниями в СМИ и отраслевыми наградами, в том числе бронзой на конкурсе Tagline Awards 2024, выходом в финал конкурса Workspace Digital Awards 2025 и пр.

- Какой вы видите роль продукта для рынка?

Daisy формирует практический стандарт ответственного и удобного использования GenAI как для массовых пользователей, так и для бизнеса. Проект демонстрирует тиражируемый подход к построению ИИ-инфраструктуры, решающий проблему фрагментации сервисов и снижающий начальный порог при работе с современными ИИ-инструментами. Роль Daisy — стать технологическим слоем, позволяющим крупным экосистемам безопасно и эффективно внедрять генеративный ИИ, создавая новую ценность для своих аудиторий.

- В каких направлениях планируете развивать решение?

Мы развиваем два ключевых направления: создание семейства ИИ-агентов для специализированных задач — например, анализ кода или форматирование текстов, и расширение сценарного формата взаимодействия для комплексных (end-to-end) решений. В планах — углубление партнерств с крупными технологическими компаниями, интеграция Daisy во внешние платформы, обслуживающие миллионы пользователей, а также развитие инструментов Low-Code и умных ИИ-агентов. Это превратит Daisy в полноценную экосистему, где пользователи и разработчики смогут создавать собственные решения на нашей базе.