DeepSeek-AI выпустила новое поколение своих языковых моделей — DeepSeek-V3.2 и V3.2-Speciale. Обновление сфокусировано на способностях к рассуждению и работе с агентами.
Ключевой особенностью релиза стала интеграция размышлений непосредственно в инструменты модели. Это позволяет нейросети эффективнее решать задачи, требующие сложной последовательности действий.
Разработчики заявляют, что модель DeepSeek-V3.2-Speciale достигла уровня «золотой медали» в международных олимпиадах по математике (IMO) и информатике (IOI).
В прямом сравнении с конкурентами ситуация выглядит следующим образом:
- Математика (AIME 2025): DeepSeek-V3.2-Speciale набрала 96,0%, обойдя GPT-5 High (94,6%) и Gemini-3.0 Pro (95,0%). Стандартная версия V3.2 показала результат 93,1%.
- Программирование (CodeForces): рейтинг версии Speciale составил 2701, что практически идентично Gemini-3.0 Pro (2708) и значительно выше GPT-5 High (2537).
- Агентные задачи (Tool-Decathlon): стандартная DeepSeek-V3.2 Thinking (35,2%) превосходит GPT-5 High (29,0%), но немного уступает Claude-4.5 Sonnet (38,6%) и Gemini-3.0 Pro (36,4%).

В основе моделей лежит новая архитектура DeepSeek Sparse Attention (DSA), которая позволяет эффективно работать с длинным контекстом.
Однако разработчики признают и недостатки: из-за меньшего объёма вычислительных ресурсов при обучении (по сравнению с конкурентами) DeepSeek-V3.2 уступает им в широте общих знаний о мире. Кроме того, для достижения высокого качества модели требуют генерации более длинных цепочек рассуждений, что сказывается на эффективности расхода токенов.
Стандартная модель уже доступна через API, веб-интерфейс и приложение — попробовать можно по ссылке. Версия Speciale доступна через API до 15 декабря 2025 года.
Читать первым в Telegram-канале «Код Дурова»

























































