Кодик кратко объясняет суть статьи
DeepSeek-AI представила обновленные языковые модели DeepSeek-V3.2 и V3.2-Speciale, отличающиеся улучшенными возможностями рассуждения и работы с агентами. Встроенная функция размышления помогает нейросети лучше справляться с задачами, требующими последовательных действий. Модель V3.2-Speciale продемонстрировала выдающиеся результаты на международных соревнованиях по математике и программированию, обогнав конкурентов, включая GPT-5 High и Gemini-3.0 Pro. Однако она уступает соперникам по объему общих знаний из-за ограниченных вычислительных ресурсов при обучении и требует больше токенов для выполнения сложных задач. Стандартная версия доступна через API, веб-сайт и мобильное приложение, тогда как доступ к Speciale ограничен сроком до 15 декабря 2025 года.
Читайте в Telegram
|
DeepSeek-AI выпустила новое поколение своих языковых моделей — DeepSeek-V3.2 и V3.2-Speciale. Обновление сфокусировано на способностях к рассуждению и работе с агентами.
Ключевой особенностью релиза стала интеграция размышлений непосредственно в инструменты модели. Это позволяет нейросети эффективнее решать задачи, требующие сложной последовательности действий.
Разработчики заявляют, что модель DeepSeek-V3.2-Speciale достигла уровня «золотой медали» в международных олимпиадах по математике (IMO) и информатике (IOI).
В прямом сравнении с конкурентами ситуация выглядит следующим образом:
- Математика (AIME 2025): DeepSeek-V3.2-Speciale набрала 96,0%, обойдя GPT-5 High (94,6%) и Gemini-3.0 Pro (95,0%). Стандартная версия V3.2 показала результат 93,1%.
- Программирование (CodeForces): рейтинг версии Speciale составил 2701, что практически идентично Gemini-3.0 Pro (2708) и значительно выше GPT-5 High (2537).
- Агентные задачи (Tool-Decathlon): стандартная DeepSeek-V3.2 Thinking (35,2%) превосходит GPT-5 High (29,0%), но немного уступает Claude-4.5 Sonnet (38,6%) и Gemini-3.0 Pro (36,4%).

В основе моделей лежит новая архитектура DeepSeek Sparse Attention (DSA), которая позволяет эффективно работать с длинным контекстом.
Однако разработчики признают и недостатки: из-за меньшего объёма вычислительных ресурсов при обучении (по сравнению с конкурентами) DeepSeek-V3.2 уступает им в широте общих знаний о мире. Кроме того, для достижения высокого качества модели требуют генерации более длинных цепочек рассуждений, что сказывается на эффективности расхода токенов.
Стандартная модель уже доступна через API, веб-интерфейс и приложение — попробовать можно по ссылке. Версия Speciale доступна через API до 15 декабря 2025 года.








