После того, как мир штурмом и обрушив фондовые рынки США в январе 2025 года, компания DeepSeek объявила о выпуске двух новых моделей ИИ с открытым исходным кодом: DeepSeek V3.2 и DeepSeek V3.2-Speciale.
Этот релиз знаменует собой продолжение четкой стратегии компании в гонке вооружений ИИ. В то время как OpenAI и Google тратят миллиарды долларов на вычисления для обучения своих передовых моделей, ставя во главу угла повышение производительности любой ценой, компания DeepSeek пошла по другому пути. Ее предыдущая модель R1 была примечательна тем, что ей удалось достичь производительности на уровне GPT 4o и Gemini 2.5 Pro благодаря умным методам усиления, несмотря на то, что она обучалась на менее продвинутых чипах.
Превзошел GPT-5 и сравнялся с Gemini 3 Pro от Google
Стандартная версия DeepSeek-V3.2 позиционируется как сбалансированный "ежедневный драйвер", гармонично сочетающий эффективность с агентурной производительностью, которая, по утверждению компании, сопоставима с GPT-5. Это также первая модель DeepSeek, в которой мышление интегрировано непосредственно в использование инструментов, причем последнее возможно как в режиме мышления, так и без него.
Однако именно вариант DeepSeek V3.2-Speciale с высокими вычислениями привлечет к себе внимание. Компания DeepSeek утверждает, что модель Speciale превосходит GPT-5 и соперничает с Gemini 3.0 Pro от Google по возможностям чистого мышления. Она даже получила золотые медали на Международной математической олимпиаде (IMO) и Международной олимпиаде по информатике (IOI) в 2025 году. И чтобы доказать, что это не просто маркетинговый ход, компания DeepSeek заявила, что выпустила свои финальные заявки на участие в этих соревнованиях для проверки сообществом.
DeepSeek приписывает прирост производительности "DeepSeek Sparse Attention" (DSA), механизму, разработанному для снижения вычислительной сложности в сценариях с длинным контекстом, и масштабируемой системе обучения с подкреплением.
Возможно, наиболее интересным для разработчиков является акцент на агентах. Компания DeepSeek создала "Крупномасштабный конвейер синтеза агентских задач" для обучения модели на более чем 85 000 сложных инструкций. В результате получилась модель, которая может интегрировать "мыслительные" процессы непосредственно в сценарии использования инструментов.
Доступность
DeepSeek V3.2 уже доступен в Интернете, мобильных приложениях и API. В то же время, V3.2 Speciale в настоящее время доступен только для API и поставляется со строго временной конечной точкой, срок действия которой истекает 15 декабря 2025 года. Кроме того, Speciale - это чистый механизм рассуждений и не поддерживает вызов инструментов. Если Вы хотите запустить эти модели локально, компания предлагает подробные инструкции по этому вопросу https://github.com/deepseek-ai/DeepSeek-V3.2-Exp.







