MiniMax выпускает новую модель M2

MiniMax M2 — сильная open-source LLM для кода и агентов

~1 мин чтения

MiniMax представила M2 — новую версию своей open-source LLM, оптимизированную под кодинг и агентные сценарии. Модель построена на sparse Mixture-of-Experts: общий объём параметров ~230 млрд, при инференсе активируется ~10 млрд — что даёт значительный выигрыш в скорости, стоимости и эффективности.

M2 ориентирована на задачи с multi-file кодом, многошаговой логикой, tool-use и agent-workflow. По ряду тестов моделb демонстрирует результаты на уровне, сопоставимом с коммерческими LLM: генерирует, отлаживает, рефакторит код, справляется с последовательным reasoning и планированием. MiniMax подчёркивает, что M2 — одна из самых сбалансированных open-source систем по “качество / цена / скорость”.

Архитектура и лицензия (open-weight) делают M2 удобной для самостоятельного развёртывания или интеграции в собственные сервисы, без ограничений закрытых API. Это даёт шанс широкому кругу разработчиков и компаний использовать передовой ИИ — без компромиссов между мощностью и затратами.

QR Telegram

Подписывайтесь на наш Telegram

Новости, сводки и разборы

Читайте также