LongCat AI развивается как инженерно ориентированная open-weight платформа на базе 560B Mixture-of-Experts архитектуры. Эволюция линейки отражает переход от универсальной text-only модели к reasoning-системам и мультимодальному стеку.
2025 — запуск LongCat Flash Chat AI
Первая публичная open-weight модель линейки — LongCat Flash Chat AI. Это 560B MoE foundation-модель с ~27B активных параметров и поддержкой 128K контекста.
Ключевые изменения на старте:
- Shortcut-connected MoE (ScMoE);
- Zero-Computation Experts;
- FP8-чекпоинт для ускоренного инференса;
- MIT-лицензия для локального деплоя.
На этом этапе LongCat AI позиционировалась как агентная универсальная LLM.
Осень 2025 — LongCat Flash Thinking AI
Следующим шагом стала reasoning-линия LongCat Flash Thinking AI. Модель получила специализированный RL-пайплайн:
- Long CoT Cold-Start;
- масштабируемое обучение через DORA;
- доменно-параллельное развитие экспертов;
- ориентацию на STEM и код.
Это приблизило LongCat AI к reasoning-моделям уровня DeepSeek R1, но при сохранении open-weight статуса.
Версия Flash-Thinking-2601
Обновление 2601 усилило reasoning-производительность и оптимизировало использование вычислительных ресурсов.
Основные изменения:
- улучшенная RL-стабильность;
- оптимизация токен-расхода при сложных задачах;
- интеграция Heavy Thinking Mode.
Heavy Thinking Mode
Введение Heavy Thinking Mode стало ключевым этапом развития. Режим реализует test-time scaling:
- параллельные reasoning-траектории;
- итеративное summarization;
- глубинное логическое масштабирование без изменения параметров модели.
Это сближает LongCat AI с концепцией reasoning-first моделей нового поколения.
Ноябрь 2025 — запуск LongCat Flash Omni AI
Мультимодальная версия LongCat Flash Omni AI добавила поддержку text, image, audio и video в единой архитектуре.
Основные изменения:
- progressive multimodal injection;
- modality-decoupled parallelism;
- сохранение высокой text-throughput в мультимодальном режиме.
По направлению мультимодальности это приближает LongCat к решениям уровня DeepSeek VL, но с сохранением MoE-бекбона.
Запуск визуальных моделей
В конце 2025 года появились специализированные open-weight линии:
- LongCat Image AI — 6B hybrid diffusion transformer для text-to-image и image editing;
- LongCat Video AI — text-to-video и avatar-сценарии;
- LongCat Audio Codec — инфраструктурный компонент для speech LLM.
Это расширило LongCat AI от чисто текстовой MoE-платформы к полноценной мультимодальной экосистеме.
Стратегическая динамика развития
- От универсальной LLM → к reasoning LRM.
- От text-only → к omni-мультимодальности.
- От single-model подхода → к специализированным линиям (Image, Video, Audio).
- Сохранение open-weight философии при масштабировании до 560B.
В отличие от экосистемных моделей вроде GigaChat MAX или сервисно-ориентированных решений типа YandexGPT 5 Pro, LongCat AI продолжает развиваться как инженерная платформа для самостоятельного развёртывания.
Текущий вектор развития
Основной фокус обновлений LongCat AI:
- оптимизация MoE-архитектуры;
- масштабируемое reasoning через RL;
- развитие мультимодального unified-бекбона;
- улучшение эффективности inference.
Итог: LongCat AI развивается от универсальной 560B MoE LLM к полноценной мультимодальной reasoning-платформе с open-weight стратегией и акцентом на инженерную масштабируемость.