Обложка

Devstral Small 2: 24B кодинг-модель от Mistral для локального запуска

2026-02-13

Что такое Devstral Small 2 (24B) от Mistral: 256K контекст, Apache 2.0, бенчмарки SWE-bench Verified и быстрый старт через Ollama/vLLM.


Devstral Small 2 — компактная (24B параметров) модель семейства Devstral от Mistral AI, заточенная под software engineering / agentic coding: работа с репозиториями, инструментами, изменениями в нескольких файлах и т.п.

Ниже — что это за модель, чем она интересна и как её быстро попробовать локально.

Что Mistral выпустили

В декабре 2025 Mistral представили новое семейство кодинговых моделей:

  • Devstral 2 (123B) — большой «флагман»
  • Devstral Small 2 (24B) — более компактная версия для локального запуска

У них общий фокус: агентные сценарии для разработки (поиск по кодовой базе, понимание архитектуры, мультифайловые правки, исправления и ретраи).

Источник: пост Mistral «Introducing: Devstral 2 and Mistral Vibe CLI» — https://mistral.ai/news/devstral-2-vibe-cli

Ключевые характеристики Devstral Small 2

По данным Mistral/Hugging Face:

  • 24B параметров — ориентирован на запуск на «потребительском железе»
  • Контекст 256K — большой контекст для работы с кодовыми базами
  • Vision (мультимодальность) — модель умеет работать с изображениями (это одно из отличий от Devstral Small 1.1)
  • Лицензия Apache 2.0 — можно использовать/модифицировать в коммерческих проектах (с соблюдением условий лицензии)

Источник (model card): https://huggingface.co/mistralai/Devstral-Small-2-24B-Instruct-2512

Бенчмарки (SWE-bench Verified)

Mistral заявляет для Devstral Small 2:

  • 68.0% на SWE-bench Verified

А для Devstral 2 (123B):

  • 72.2% на SWE-bench Verified

Источник: пост Mistral + model card на Hugging Face (сводная таблица бенчмарков).

Зачем это может быть полезно на практике

Если ты хочешь «свой Claude Code, но локально/приватно», Devstral Small 2 интересен тем, что он:

  • достаточно маленький, чтобы реально жить на локальной машине (в зависимости от квантизации/формата)
  • при этом рассчитан на tool-calling / агентные паттерны
  • держит огромный контекст, что критично для репозиториев

Важно: «локально» не всегда значит «быстро». Скорость будет зависеть от GPU/CPU, формата весов, квантизации и сервера (Ollama / vLLM / llama.cpp и т.д.).

Как быстро попробовать локально

Вариант 1: Ollama

Самый простой старт, если у тебя уже стоит Ollama:

ollama run devstral-small-2

Источник: https://ollama.com/library/devstral-small-2

Вариант 2: Hugging Face + сервер (vLLM)

Если нужен «почти прод» и OpenAI-совместимый API, Mistral рекомендует vLLM. Пример команды запуска (с большим --max-model-len под 256K) есть в model card.

Источник: https://huggingface.co/mistralai/Devstral-Small-2-24B-Instruct-2512

Vibe CLI — официальный терминальный агент

Одновременно с моделями Mistral выпустили Mistral Vibe CLI — open-source CLI-агент, который умеет исследовать проект, менять файлы и запускать команды.

Если тебе нужен «кодинг-агент в терминале» — имеет смысл посмотреть именно сюда.

Источник: https://mistral.ai/news/devstral-2-vibe-cli


Вывод

Devstral Small 2 — редкий класс моделей: достаточно мощная для агентного кодинга, но при этом реально локально-ориентированная.

Если хочешь — могу сделать продолжение: практический гайд «Devstral Small 2 локально на Mac/Windows/Linux: форматы, квантизация, Ollama vs vLLM, типичные грабли».