В Nvidia планируют выпустить новый процессор, предназначенный для ускорения формирования логических выводов моделями ИИ, который призван помочь OpenAI и другим клиентам создавать более эффективные ИИ-решения. Это должно привести к серьезным изменением в бизнесе Nvidia, продукты которой доминируют в обучении моделей, поскольку теперь в компании намерены заметно укрепить позиции и в формировании логических выводов.
В Nvidia разрабатывают также новую платформу для ускорения ИИ-инференса (то есть генерации результатов моделями в реальном времени), которая позволит моделям ИИ быстрее отвечать на запросы. Она должна быть представлена на конференции разработчиков Nvidia GTC 2026 в Сан-Хосе в марте и, насколько известно, будет сочетать созданную в компании Groq процессорную технологию LPU (Language Processing Unit) с обеспечивающей предсказуемо низкие задержки детерминированной архитектурой и экосистему Nvidia CUDA, объединяя возможности графических и «языковых» процессоров в гибридном решении формирования выводов.
Groq — американский стартап, специализирующийся на чипах и ПО для ускорения ИИ-инференса. В декабре 2025 года в Nvidia заключили с Groq лицензионное соглашение, оцениваемую в 20 млрд долл., получив в свое распоряжение активы, технологии LPU и ведущих сотрудников. Теперь в Nvidia интегрируют технологии Groq в «ИИ-фабрики», одну из которых представят в Сан-Хосе.
Ранее, по данным Reuters, в OpenAI высказывали недовольство скоростью, с которой «железо» Nvidia формирует ответы пользователям ChatGPT при решении таких специфических задач, как разработка ПО и взаимодействие ИИ с другими программами. Проблема, как считают эксперты, связана именно с инференсом, поскольку графические процессоры Nvidia (к примеру, H100) не обладают нужной производительностью в реальном времени из-за архитектурной зависимости от внешней памяти (HBM3 или DDR), что создает дополнительные задержки при передаче данных. Поэтому в OpenAI обсуждали сотрудничество со стартапами, в том числе с Cerebras и Groq, чтобы получить чипы для ускорения логических выводов. Однако после соглашения Nvidia с Groq в OpenAI потеряли доступ к Groq, а новая гибридная платформа Nvidia должна, как ожидают, более чем на порядок ускорить формирование логических выводов.