12 мая 2026

eur = 88.55 0.66 (0.75 %)

btc = 81 694.00$ - 329.86 (-0.40 %)

eth = 2 337.89$ -31.01 (-1.31 %)

ton = 2.43$ -0.05 (-2.10 %)

usd = 74.30 -0.32 (-0.43 %)

eur = 88.55 0.66 (0.75 %)

btc = 81 694.00$ - 329.86 (-0.40 %)

DeepSeek представила модели V3.2 и «олимпийскую» V3.2-Speciale

1 минута на чтение
Логотип компании DeepSeek, стилизованный под синего кита

Кодик кратко объясняет суть статьи

DeepSeek-AI представила обновленные языковые модели DeepSeek-V3.2 и V3.2-Speciale, отличающиеся улучшенными возможностями рассуждения и работы с агентами. Встроенная функция размышления помогает нейросети лучше справляться с задачами, требующими последовательных действий. Модель V3.2-Speciale продемонстрировала выдающиеся результаты на международных соревнованиях по математике и программированию, обогнав конкурентов, включая GPT-5 High и Gemini-3.0 Pro. Однако она уступает соперникам по объему общих знаний из-за ограниченных вычислительных ресурсов при обучении и требует больше токенов для выполнения сложных задач. Стандартная версия доступна через API, веб-сайт и мобильное приложение, тогда как доступ к Speciale ограничен сроком до 15 декабря 2025 года.

Читайте в Telegram

|

DeepSeek-AI выпустила новое поколение своих языковых моделей — DeepSeek-V3.2 и V3.2-Speciale. Обновление сфокусировано на способностях к рассуждению и работе с агентами.

Ключевой особенностью релиза стала интеграция размышлений непосредственно в инструменты модели. Это позволяет нейросети эффективнее решать задачи, требующие сложной последовательности действий.

Разработчики заявляют, что модель DeepSeek-V3.2-Speciale достигла уровня «золотой медали» в международных олимпиадах по математике (IMO) и информатике (IOI).

В прямом сравнении с конкурентами ситуация выглядит следующим образом:

  • Математика (AIME 2025): DeepSeek-V3.2-Speciale набрала 96,0%, обойдя GPT-5 High (94,6%) и Gemini-3.0 Pro (95,0%). Стандартная версия V3.2 показала результат 93,1%.
  • Программирование (CodeForces): рейтинг версии Speciale составил 2701, что практически идентично Gemini-3.0 Pro (2708) и значительно выше GPT-5 High (2537).
  • Агентные задачи (Tool-Decathlon): стандартная DeepSeek-V3.2 Thinking (35,2%) превосходит GPT-5 High (29,0%), но немного уступает Claude-4.5 Sonnet (38,6%) и Gemini-3.0 Pro (36,4%).
Таблица сравнения результатов тестов различных языковых моделей

В основе моделей лежит новая архитектура DeepSeek Sparse Attention (DSA), которая позволяет эффективно работать с длинным контекстом.

Однако разработчики признают и недостатки: из-за меньшего объёма вычислительных ресурсов при обучении (по сравнению с конкурентами) DeepSeek-V3.2 уступает им в широте общих знаний о мире. Кроме того, для достижения высокого качества модели требуют генерации более длинных цепочек рассуждений, что сказывается на эффективности расхода токенов.

Стандартная модель уже доступна через API, веб-интерфейс и приложение — попробовать можно по ссылке. Версия Speciale доступна через API до 15 декабря 2025 года.

Теги:
Материал обновлен|
Обсудить
Блоги 535
ЦНИС
OTP Bank
Слетать.ру
билайн
ВКонтакте
ВТБ
Т-Банк
Газпромбанк
МТС
X5 Tech

Привет, это Кодик! Я создан, чтобы помогать вам с  разными задачами. Задайте мне вопрос…