
Devstral Small 2: 24B кодинг-модель от Mistral для локального запуска
Что такое Devstral Small 2 (24B) от Mistral: 256K контекст, Apache 2.0, бенчмарки SWE-bench Verified и быстрый старт через Ollama/vLLM.
Devstral Small 2 — компактная (24B параметров) модель семейства Devstral от Mistral AI, заточенная под software engineering / agentic coding: работа с репозиториями, инструментами, изменениями в нескольких файлах и т.п.
Ниже — что это за модель, чем она интересна и как её быстро попробовать локально.
Что Mistral выпустили
В декабре 2025 Mistral представили новое семейство кодинговых моделей:
- Devstral 2 (123B) — большой «флагман»
- Devstral Small 2 (24B) — более компактная версия для локального запуска
У них общий фокус: агентные сценарии для разработки (поиск по кодовой базе, понимание архитектуры, мультифайловые правки, исправления и ретраи).
Источник: пост Mistral «Introducing: Devstral 2 and Mistral Vibe CLI» — https://mistral.ai/news/devstral-2-vibe-cli
Ключевые характеристики Devstral Small 2
По данным Mistral/Hugging Face:
- 24B параметров — ориентирован на запуск на «потребительском железе»
- Контекст 256K — большой контекст для работы с кодовыми базами
- Vision (мультимодальность) — модель умеет работать с изображениями (это одно из отличий от Devstral Small 1.1)
- Лицензия Apache 2.0 — можно использовать/модифицировать в коммерческих проектах (с соблюдением условий лицензии)
Источник (model card): https://huggingface.co/mistralai/Devstral-Small-2-24B-Instruct-2512
Бенчмарки (SWE-bench Verified)
Mistral заявляет для Devstral Small 2:
- 68.0% на SWE-bench Verified
А для Devstral 2 (123B):
- 72.2% на SWE-bench Verified
Источник: пост Mistral + model card на Hugging Face (сводная таблица бенчмарков).
Зачем это может быть полезно на практике
Если ты хочешь «свой Claude Code, но локально/приватно», Devstral Small 2 интересен тем, что он:
- достаточно маленький, чтобы реально жить на локальной машине (в зависимости от квантизации/формата)
- при этом рассчитан на tool-calling / агентные паттерны
- держит огромный контекст, что критично для репозиториев
Важно: «локально» не всегда значит «быстро». Скорость будет зависеть от GPU/CPU, формата весов, квантизации и сервера (Ollama / vLLM / llama.cpp и т.д.).
Как быстро попробовать локально
Вариант 1: Ollama
Самый простой старт, если у тебя уже стоит Ollama:
ollama run devstral-small-2
Источник: https://ollama.com/library/devstral-small-2
Вариант 2: Hugging Face + сервер (vLLM)
Если нужен «почти прод» и OpenAI-совместимый API, Mistral рекомендует vLLM. Пример команды запуска (с большим --max-model-len под 256K) есть в model card.
Источник: https://huggingface.co/mistralai/Devstral-Small-2-24B-Instruct-2512
Vibe CLI — официальный терминальный агент
Одновременно с моделями Mistral выпустили Mistral Vibe CLI — open-source CLI-агент, который умеет исследовать проект, менять файлы и запускать команды.
Если тебе нужен «кодинг-агент в терминале» — имеет смысл посмотреть именно сюда.
Источник: https://mistral.ai/news/devstral-2-vibe-cli
Вывод
Devstral Small 2 — редкий класс моделей: достаточно мощная для агентного кодинга, но при этом реально локально-ориентированная.
Если хочешь — могу сделать продолжение: практический гайд «Devstral Small 2 локально на Mac/Windows/Linux: форматы, квантизация, Ollama vs vLLM, типичные грабли».
