MiniMax представила M2 — новую версию своей open-source LLM, оптимизированную под кодинг и агентные сценарии. Модель построена на sparse Mixture-of-Experts: общий объём параметров ~230 млрд, при инференсе активируется ~10 млрд — что даёт значительный выигрыш в скорости, стоимости и эффективности.
M2 ориентирована на задачи с multi-file кодом, многошаговой логикой, tool-use и agent-workflow. По ряду тестов моделb демонстрирует результаты на уровне, сопоставимом с коммерческими LLM: генерирует, отлаживает, рефакторит код, справляется с последовательным reasoning и планированием. MiniMax подчёркивает, что M2 — одна из самых сбалансированных open-source систем по “качество / цена / скорость”.
Архитектура и лицензия (open-weight) делают M2 удобной для самостоятельного развёртывания или интеграции в собственные сервисы, без ограничений закрытых API. Это даёт шанс широкому кругу разработчиков и компаний использовать передовой ИИ — без компромиссов между мощностью и затратами.