«Tiny Recursive Model» побеждает LLM в аналитических тестах

«Tiny Recursive Model» побеждает крупные LLM в тестах на рассуждение

~1 мин чтения

Маленькая модель — большой прорыв

Исследователи представили модель под названием Tiny Recursive Model (TRM) — всего лишь 321 миллион параметров, но с серьёзной производительностью. По результатам тестов на задаче рассуждения ARC-AGI (логические головоломки) она обогнала многие гораздо более крупные языковые модели.

Как устроена TRM

TRM использует нетипичную архитектуру: 80 слоёв, глубже, чем у многих моделей с миллиардными параметрами. Она обучалась на ~200 миллиарда токенов, с акцентом не на объём, а на сложность логических тренировочных примеров.

Почему это важно

Традиционно успех в генеративном ИИ связывается с ростом параметров и объёмом вычислений. TRM ломает этот сценарий: меньшая, глубже оптимизированная модель показывает, что архитектура и данные могут оказаться важнее количества параметров.
Это открывает путь к системам с меньшими ресурсами: более быстрым, энергоэффективным, применимым на устройствах (edge) и в режиме реального времени.

Практические последствия

  • Компании и стартапы могут переосмыслить ресурсные требования к ИИ-моделям.
  • Появляется шанс на развитие моделей, которые запускаются ближе к пользователю и с низкой задержкой (low-latency).
  • Инструменты оптимизации и архитектуры — ключевые направления в ближайшие годы.

Что остаётся проверить

Пока TRM показывает впечатляющие результаты в тестах, важнее понять, как модель поведёт себя в реальных задачах. Логические бенчмарки — это только часть картины. В прикладных сценариях — генерация текстов, контекстные диалоги, анализ данных, мультимодальные запросы — требуются другие навыки.

Разработчикам предстоит проверить, насколько модель стабильна при больших нагрузках, как она масштабируется в продакшене и насколько легко интегрируется в существующие пайплайны. Только после этих испытаний станет ясно, может ли TRM стать полноценной альтернативой крупным LLM

QR Telegram

Подписывайтесь на наш Telegram

Новости, сводки и разборы

Читайте также