TPU: специализированные чипы Google для обучения моделей

Термин глоссария

TPU


TPU — это собственная разработка Google, ориентированная на выполнение матричных операций. Она обеспечивает высокую скорость и оптимизирована для глубокого обучения.

Короткое определение

TPU (Tensor Processing Unit) — специализированный чип, созданный для ускорения обучения и инференса нейросетей с упором на матричные операции и работу с тензорами.

Подробное объяснение

В отличие от GPU, которые универсальны, TPU разработаны специально под задачи ML. Они используют systolic arrays — архитектуру, ускоряющую тензорные вычисления.

TPU максимально сочетаются с экосистемой Google: TensorFlow, JAX, Colab, Vertex AI. Их основной плюс — высокая скорость при обучении больших моделей.

TPU распределяются в кластеры — TPU Pods, которые позволяют обучать модели уровня PaLM и Gemini на сотнях и тысячах чипов.

TPU менее универсальны, чем GPU, но отлично работают в задачах, где требуется стабильная и масштабируемая производительность.

В потребительских устройствах TPU не используются — это серверная технология.

Примеры использования

  • Обучение моделей в Google Cloud.
  • Сервисы Gemini и PaLM.
  • Распределённые задачи глубокого обучения.
  • Научные исследования в TensorFlow / JAX.
  • Обработка больших тензорных массивов.

Связанные термины

  • GPU
  • NPU
  • Tensor Cores
  • Матричные операции

Категория термина

Аппаратное ускорение • Инференс и производительность