Компания Google возвращается к стратегии разделения функций тензорных процессоров, представив два новых чипа восьмого поколения, один из которых предназначен для обучения моделей ИИ, другой – для формирования логических выводов. Такое разделение, по мнению аналитиков, свидетельствующее об адаптации аппаратного обеспечения к различным этапам жизненного цикла ИИ на предприятиях, должно повысить его эффективность и рентабельность в производственных средах.
Обучение и логические выводы различаются с точки зрения экономики, особенностей памяти, сетевых потребностей и запросов пользователей, которые хотят оптимизировать соотношение цены и качества на каждом этапе жизненного цикла модели, утверждают, к примеру, в HFS Research. По мнению экспертов Forrester, возможность выбирать между двумя вариантами тензорных процессоров поможет компаниям избежать затрат на повторное обучение готовых моделей, обученных на других платформах, для работы в экосистеме Google Cloud TPU и TensorFlow.
Ранее в Google уже экспериментировали с дифференцированными вариантами TPU пятого поколения — V5p и V5e для высокопроизводительного обучение моделей и более экономичного инференса и обучение меньшего масштаба. На конференции Google Cloud Next 2026 представители компании анонсировали новейшие чипы TPU 8t и 8i для обучения и инференса соответственно. TPU 8t обладает почти в три раза более высокой производительностью на модуль SuperPOD по сравнению с процессорами Ironwood, имеет более крупные супермодули и вдвое большую пропускную способность межчиповых соединений. По данным Google, модуль SuperPOD, содержащего 9216 чипов Ironwood, обладает производительностью 42,5 EFLOPS, а модуль с 9600 чипами TPU 8t обеспечивает 121 EFLOPS, при этом двунаправленная пропускная способность межчипового интерфейса увеличена вдвое — до 19,2 Тбит/с на чип, а пропускная способность сети — в четыре раза, до 400 Гбит/с.
TPU 8i, ориентированные на логические выводы, обладают объемом памяти как минимум в три раза больше, чем Ironwood. Эти процессоры содержат на одном чипе 288 Гбайт высокоскоростной памяти HBM3e и 384 МБ SRAM, что, по мнению экспертов, приближает параметры данных TPU к показателям ведущих графических процессоров. Базовый модуль на основе TPU 8i масштабируется до до 1152 чипов и производительности 11,6 EFLOPS, по сравнению с показателями Ironwood — 256 чипов и 1,2 EFLOPS.
TPU 8t и 8i станут общедоступными во второй половине 2026 года как часть платформы Google AI Hypercomputer, сообщили в Google. Другие игроки также идут по пути разделения архитектуры, к примеру AWS, с чипами Trainium и Inferentia для разных задач ИИ.