Track
Если вы выбираете между Claude Opus 4.7 и DeepSeek V4 для следующего проекта, всё упирается в реальный компромисс: закрытый, отполированный флагман Anthropic против открытой и агрессивно оцениваемой по цене альтернативы DeepSeek. Обе модели вышли с разницей в несколько дней в апреле 2026 года и обе заявляют о почти фронтирной производительности в агентном кодинге и рассуждении на длинном контексте.
Интерес этого сравнения в том, что DeepSeek V4 — первая модель с открытыми весами, которая убедительно попадает в один разговор с Opus 4.7 по агентным бенчмаркам. При этом Opus 4.7 предлагает функции, для которых у DeepSeek пока нет эквивалентов: бюджеты задач, уровень усилий xhigh и новую команду /ultrareview в Claude Code для ревью кода.
В этой статье я сравню Claude Opus 4.7 и DeepSeek V4 по пяти ключевым измерениям: кодинг и агентные рабочие процессы, рассуждение и задачи знаний, мультимодальность и использование инструментов, ценообразование и доступ к открытым весам. Также вы можете посмотреть наши отдельные материалы по DeepSeek V4 и Claude Opus 4.7 для глубокого погружения в каждую модель.
Что такое Claude Opus 4.7?
Claude Opus 4.7 — последний флагман Anthropic, выпущенный 16 апреля 2026 года. Он рассчитан на сложные, длительные агентные сценарии, с особым упором на разработку ПО и задачи компьютерного зрения в высоком разрешении. Модель принимает изображения с длинной стороной до 2 576 пикселей, примерно 3,75 мегапикселя — более чем втрое выше разрешения предыдущих моделей Claude.
В релизе представлен новый уровень усилий xhigh между high и max, бюджеты задач в публичной бете для контроля расхода токенов на длинных запусках и слэш-команда /ultrareview в Claude Code для выделенных сессий код-ревью. Anthropic также отмечает, что Opus 4.7 — первая модель, поставляемая с защитами от киберугроз в реальном времени в рамках инициативы Project Glasswing, что делает её испытательным полигоном для функций безопасности перед более широким релизом класса Mythos.
Чтобы увидеть Opus 4.7 в действии, посмотрите наш Практический бенчмарк‑туториал по Claude Opus 4.7, где мы проверяем, улучшает ли память самокритики Opus 4.7 производительность кодинга, а также наш Туториал по API Claude Opus 4.7, который проведёт вас через создание приложения‑оцифровщика с Anthropic API. Вы также можете посмотреть, как он сопоставим с другими флагманами, в наших сравнениях с Gemini 3.1 Pro и GPT-5.5.
Что такое DeepSeek V4?
DeepSeek V4 — предпросмотрный релиз китайской лаборатории DeepSeek, запущенный 24 апреля 2026 года. Он представлен в двух вариантах: V4‑Pro с общим числом параметров 1,6 трлн и 49 млрд активных и V4‑Flash с 284 млрд общих и 13 млрд активных. Обе модели используют архитектуру Mixture of Experts и поставляются с окном контекста в 1 миллион токенов по умолчанию во всех сервисах.
Главное заявление — структурная эффективность. По словам DeepSeek, V4‑Pro требует лишь 27% FLOPs на вывод одного токена и 10% KV‑кэша по сравнению с предшественником V3.2 в сценарии с контекстом 1M токенов. Обе модели имеют открытые веса под лицензией MIT и доступны на Hugging Face. API поддерживает форматы как OpenAI, так и Anthropic, а обе модели предлагают режимы с «мышлением» и без него.
Полный разбор архитектуры, бенчмарков и вариантов доступа к DeepSeek V4 смотрите в нашем гайде по DeepSeek V4. Обязательно прочитайте и наше сравнение DeepSeek V4 и GPT-5.5.
Claude Opus 4.7 vs DeepSeek V4: очное сравнение
Короткая шпаргалка перед подробностями. Таблица охватывает наиболее важные для выбора параметры обеих моделей.
| Характеристика | Claude Opus 4.7 | DeepSeek V4-Pro |
|---|---|---|
| Разработчик | Anthropic (закрытая) | DeepSeek (открытые веса, MIT) |
| Параметры | Не опубликованы | 1,6T всего / 49B активных |
| Окно контекста | 1M токенов на входе / 128K на выходе | 1M токенов на входе |
| Цены API (вход / выход за 1M токенов) | $5.00 / $25.00 | $1.74 / $3.48 |
| SWE-bench Pro | 64,3% | 55,4% |
| Terminal-Bench 2.0 | 69,4% | 67,9% |
| GPQA Diamond | 94,2% | 90,1% |
| Открытые веса | Нет | Да (лицензия MIT) |
| Режимы «мышления» | low, medium, high, xhigh, max |
Non-think, Think High, Think Max |
| Интеграции для агентных сценариев | Claude Code, Cursor, бюджеты задач, /ultrareview |
Claude Code, OpenClaw, OpenCode |
Кодинг и агентные рабочие процессы
Именно в агентном кодинге разрыв между моделями заметнее всего. На SWE‑bench Pro, который проверяет решение реальных GitHub‑задач в OSS‑репозиториях на Python, Opus 4.7 набирает 64,3% против 55,4% у DeepSeek V4‑Pro. Это почти 9‑очковый зазор на бенчмарке, который широко используется как прокси для производственных навыков кодинга.
На Terminal‑Bench 2.0 картина ближе: у Opus 4.7 — 69,4%, у DeepSeek V4‑Pro — 67,9%, разница около 1,5 пункта. Обе модели заметно уступают GPT‑5.5 с 82,7% на этом бенчмарке — здесь явный лидер.
| Бенчмарк | Claude Opus 4.7 | DeepSeek V4-Pro | Примечания |
|---|---|---|---|
| SWE-bench Pro | 64,3% | 55,4% | Сообщено вендорами; Opus 4.7 использует тестовый стенд Anthropic |
| Terminal-Bench 2.0 | 69,4% | 67,9% | Оценка DeepSeek из официальных релиз‑нот |
Opus 4.7 также поставляется с выделенными агентными инструментами, до которых DeepSeek V4 пока не дотягивается. Уровень усилий xhigh, бюджеты задач для контроля расхода токенов и /ultrareview в Claude Code — это функции, ориентированные на прод. DeepSeek V4 заявляет интеграции с Claude Code, OpenClaw и OpenCode, а также утверждает, что уже использует V4‑Pro для внутреннего агентного кодинга. Но экосистема вокруг Opus 4.7 более зрелая для команд, уже работающих с Claude Code.
Для инженерных задач на уровне репозитория Opus 4.7 — более сильный выбор. Разрыв на SWE‑bench Pro реален, а окружение агентных инструментов вокруг модели более развито. DeepSeek V4‑Pro конкурентоспособен в терминальных задачах, но не закрывает отставание на более сложном бенчмарке кодинга.
Рассуждение и задачи знаний
На GPQA Diamond, где проверяется уровень магистерских рассуждений по естественным наукам и математике, Opus 4.7 набирает 94,2%, а DeepSeek V4‑Pro — 90,1%. Обе оценки высокие, но разница в 4 пункта заметна, учитывая растущую насыщенность фронтира на GPQA Diamond. Gemini 3.1 Pro набирает 94,3% на том же бенчмарке, так что Opus 4.7 и Gemini по сути на уровне, а DeepSeek немного отстаёт.
На MMLU‑Pro DeepSeek V4‑Pro‑Max получает 87,5%, что сопоставимо со старыми фронтирными моделями. На GSM8K по математике — 92,6%. Это сильные результаты для модели с открытыми весами, хотя Anthropic не публикует оценку Opus 4.7 по MMLU‑Pro в релиз‑нотах, что затрудняет прямое сравнение.
Opus 4.7 особенно силён на Humanity's Last Exam — наборе магистерских вопросов по наукам, математике и гуманитарным дисциплинам: 46,9% без инструментов и 54,7% с инструментами. Модель занимает первое место в таблице лидеров без инструментов и второе — с инструментами, уступая GPT‑5.5 Pro (58,7%). DeepSeek V4 Pro заметно, но не критично уступает с 48,2% в версии с инструментами.
Можно уверенно сказать, что для самых сложных задач на рассуждение Opus 4.7 — лучший выбор.
Использование инструментов и управление компьютером
Opus 4.7 лидирует по обоим ключевым бенчмаркам использования инструментов в этом сравнении. На MCP‑Atlas, тестирующем сложные многокорневые пайплайны инструментов, Opus 4.7 набирает 77,3% — лучший результат среди всех моделей. DeepSeek V4 Pro набирает 73,6%, что удивительно близко и является лучшим показателем среди моделей с открытыми весами, опережая GLM‑5.1 Thinking (71,8%).
На OSWorld‑Verified, который измеряет способность модели выполнять задачи через управление интерфейсом компьютера, Opus 4.7 набирает 78,0%, поднявшись с 72,7% у Opus 4.6 и сопоставимо с GPT‑5.5 (78,7%).
DeepSeek V4 не публикует результаты по OSWorld в релиз‑нотах. В официальном анонсе отмечается, что V4‑Flash показывает сравнимую с V4‑Pro производительность в простых агентных задачах, а V4‑Pro является самым сильным open‑source на бенчмарках агентного кодинга. Но без опубликованных цифр по использованию компьютера прямое сравнение по этому параметру затруднено.
Неожиданно DeepSeek V4 Pro лидирует в агентном поиске: его показатель BrowseComp 83,4% обходит Opus 4.7 (79,3%) и всего на один пункт уступает лидеру GPT‑5.5 (84,4%).
Если ваш процесс зависит от оркестрации нескольких инструментов или агентов для работы с компьютером, Opus 4.7 — более доказанный выбор. Для сценариев, заточенных под агентный поиск, однако, DeepSeek V4 Pro — лучший вариант, особенно с учётом его значительно более низкой цены.
Мультимодальные возможности
Opus 4.7 сделал заметный скачок в области зрения. Теперь он принимает изображения с длинной стороной до 2 576 пикселей (около 3,75 МП), что более чем втрое выше, чем у предыдущих моделей Claude. На CharXiv Reasoning, который тестирует визуальные рассуждения по графикам и рисункам, Opus 4.7 набирает 82,1% без инструментов и 91,0% с инструментами — против 69,1% и 84,7% у Opus 4.6.
Релиз‑ноты DeepSeek V4 не включают мультимодальные бенчмарки или подробности о возможностях приёма изображений. Официальный анонс сосредоточен на текстовом агентном кодинге и эффективности на длинном контексте. Для рабочих процессов, которые зависят от анализа изображений высокого разрешения, плотного чтения графиков или агентов управления компьютером, которым нужно разбирать скриншоты, Opus 4.7 — очевидный выбор по имеющимся данным.
Цены
Здесь у DeepSeek V4 самые сильные аргументы. DeepSeek V4‑Pro стоит $1,74 за миллион входных токенов и $3,48 за миллион выходных. Opus 4.7 — $5,00 за миллион входных токенов и $25,00 за миллион выходных. Только по выходным токенам Opus 4.7 более чем в 7 раз дороже V4‑Pro.
DeepSeek V4‑Flash ещё дешевле: $0,14 за миллион входных токенов и $0,28 за миллион выходных. Для высоконагруженных сценариев, где возможностей рассуждения V4‑Flash достаточно, разница в стоимости по сравнению с Opus 4.7 колоссальная. В нашем гайде по DeepSeek V4 отмечается, что V4‑Flash значительно дешевле даже маленьких моделей вроде GPT‑5.4 Nano.
Есть важная оговорка по ценам Opus 4.7. Модель поставляется с новым токенизатором, который для одного и того же ввода даёт примерно в 1,0–1,35 раза больше токенов, чем Opus 4.6, в зависимости от типа контента. На более высоких уровнях усилий она также генерирует больше выходных токенов. Anthropic рекомендует измерять фактическое потребление токенов на реальном трафике, прежде чем напрямую переносить цену за токен в стоимость.
| Модель | Вход (за 1M токенов) | Выход (за 1M токенов) |
|---|---|---|
| Claude Opus 4.7 | $5.00 | $25.00 |
| DeepSeek V4-Pro | $1.74 | $3.48 |
| DeepSeek V4-Flash | $0.14 | $0.28 |
Для команд, запускающих высокоёмкие агентные пайплайны, где разрыв между Opus 4.7 и V4‑Pro по бенчмаркам приемлем, ценообразование DeepSeek V4‑Pro — весомый аргумент. Разница в стоимости выходных токенов достаточно велика, чтобы изменить экономику длительных агентных сценариев.
Доступ к открытым весам и гибкость развёртывания
DeepSeek V4 имеет открытые веса под лицензией MIT. Веса как V4‑Pro, так и V4‑Flash доступны на Hugging Face. V4‑Pro — это загрузка на 865 ГБ, что исключает потребительское железо, но для команд с инфраструктурой для само‑хостинга лицензия MIT означает отсутствие зависимости от API и полный контроль над развёртыванием.
Opus 4.7 — закрытая модель. Доступна через Claude API, Amazon Bedrock, Google Cloud Vertex AI и Microsoft Foundry. Опции для само‑хостинга нет. Для регулируемых отраслей или команд с жёсткими требованиями к локализации данных ограничение «только облако» — реальный минус, хотя доступность у трёх крупных облачных провайдеров всё же даёт некоторую гибкость в выборе места выполнения инференса.
DeepSeek также поддерживает форматы API как OpenAI, так и Anthropic, что означает, что для миграции существующего кода на V4‑Pro зачастую достаточно обновить параметр модели. Устаревшие эндпойнты deepseek-chat и deepseek-reasoner будут выведены из эксплуатации 24 июля 2026 года, поэтому командам, которые их используют, стоит планировать переход на deepseek-v4-flash или deepseek-v4-pro.
Когда выбрать Claude Opus 4.7, а когда — DeepSeek V4
Решение в основном сводится к трём факторам: насколько для вас важен разрыв по сложным задачам кодинга, является ли доступ к открытым весам обязательным и каков ваш бюджет на токены в масштабе.
| Сценарий | Рекомендация | Почему |
|---|---|---|
| Сложный кодинг на уровне репозитория (класс задач SWE‑bench) | Claude Opus 4.7 | 64,3% против 55,4% на SWE‑bench Pro — значимый разрыв для прод‑инжиниринга |
| Оркестрация множества инструментов и агенты для управления компьютером | Claude Opus 4.7 | Лидирует на MCP‑Atlas (77,3%) и OSWorld‑Verified (78,0%); DeepSeek не публикует результаты по последнему |
| Анализ изображений высокого разрешения и визуальные рассуждения | Claude Opus 4.7 | 91,0% на CharXiv с инструментами; поддержка изображений до 3,75 МП |
| Высокоёмкие агентные пайплайны, где важна стоимость | DeepSeek V4-Pro | $3,48 за выход против $25,00 у Opus 4.7; более чем в 7 раз дешевле на выходной токен |
| Самостоятельное или изолированное (air‑gapped) развёртывание | DeepSeek V4 | Лицензия MIT, веса на Hugging Face; Opus 4.7 доступен только в облаке |
| Бюджет‑чувствительные нагрузки с умеренными требованиями к рассуждению | DeepSeek V4-Flash | $0,14 на вход / $0,28 на выход за 1M токенов; рассуждение на многих задачах близко к V4‑Pro |
| Долговременный агентный кодинг с Claude Code | Claude Opus 4.7 | Бюджеты задач, усилие xhigh и /ultrareview специально созданы для этого процесса |
| Open‑source‑исследования или дообучение | DeepSeek V4 | Лицензия MIT позволяет модификацию и распространение; у Opus 4.7 нет эквивалента |
Выберите Claude Opus 4.7, если…
- Вы решаете сложные инженерные задачи. Разрыв в 8,9 пункта на SWE‑bench Pro по сравнению с V4‑Pro — главный дифференциатор в этом сравнении, и он подтверждается несколькими сторонними тестами, включая Cursor (70% против 58% на CursorBench) и Rakuten (в 3 раза больше прод‑задач решено, чем у Opus 4.6).
- Вы строите продакшн‑агенты, зависящие от управления компьютером. Opus 4.7 лидирует на MCP‑Atlas с 77,3% и показывает сильный результат на OSWorld‑Verified — 78,0%, тогда как DeepSeek V4 не публикует оценку.
- Высокое разрешение зрения — часть вашего контура. Переход к поддержке 3,75 МП и прирост на 13 пунктов на CharXiv Reasoning открывают кейсы вроде извлечения данных из плотных графиков и чтения сложных скриншотов агентами.
- Вы уже используете Claude Code и хотите полный стек агентных инструментов, включая бюджеты задач, усилие xhigh и /ultrareview.
Выберите DeepSeek V4, если…
- Стоимость — ключевое ограничение. При $3,48 за миллион выходных токенов против $25,00 у Opus 4.7 V4‑Pro значительно дешевле для нагрузок с большим объёмом выхода. V4‑Flash за $0,28 за миллион выходных токенов — это уже другой ценовой уровень.
- Нужно само‑хостинг или изолированное развёртывание. Лицензия MIT и доступность на Hugging Face делают V4 единственным вариантом; Opus 4.7 доступен только в облаке.
- Вы хотите дообучать или модифицировать веса модели. Лицензия MIT это позволяет; условия Anthropic — нет.
- Вы запускаете высокоёмкие пайплайны, где экономика Opus 4.7 не сходится в масштабе, и вы готовы принять компромисс в производительности на самых сложных задачах.
Итоги
Если бы мне нужно было выбрать одну модель для продакшн‑агентного кодинга без бюджетных ограничений, я бы взял Opus 4.7 (или GPT‑5.5). Разрыв на SWE‑bench Pro реален, бенчмарки по использованию инструментов — лучшие в сравнении, а окружение агентных инструментов вокруг Claude Code более развито. Одни только улучшения по зрению — с 1,15 МП до 3,75 МП и прирост на 13 пунктов на CharXiv — делают это существенным апгрейдом для мультимодальных рабочих процессов.
При этом DeepSeek V4‑Pro — самый убедительный открытый конкурент закрытой фронтирной модели из тех, что я видел. Аргумент цены трудно игнорировать в масштабе: если вы генерируете миллионы токенов выхода в день, разница между $3,48 и $25,00 за миллион токенов меняет экономику того, что вообще возможно. А лицензия MIT действительно ценна для команд, которым нужна гибкость развёртывания или дообучение.
Практическая рекомендация: используйте Opus 4.7 для самых сложных задач кодинга и агентных сценариев, где производительность на бенчмарках напрямую трансформируется в меньшее число ошибок и меньшую потребность в надзоре. Используйте DeepSeek V4‑Pro там, где важна стоимость и сложность задач умеренная. Применяйте V4‑Flash для высокоёмких, менее рискованных рабочих нагрузок, где необходимо минимизировать расходы. В большинстве случаев эти модели не соревнуются за одного и того же пользователя.
Если вы хотите поработать с этими моделями руками и построить реальные конвейеры, начните с нашего скилл‑трека AI Agent Fundamentals, который охватывает построение и развёртывание агентных систем на фронтирных моделях. Для промпт‑инжиниринга, который одинаково хорошо работает в Opus 4.7 и DeepSeek V4, подойдёт наш курс Understanding Prompt Engineering.
Claude Opus 4.7 vs DeepSeek V4: ответы на часто задаваемые вопросы
Какая модель лучше для задач разработки ПО?
Claude Opus 4.7 уверенно лидирует. Он набирает 64,3% на SWE‑bench Pro против 55,4% у DeepSeek V4‑Pro и поставляется с специализированными агентными инструментами, такими как бюджеты задач, уровень усилий xhigh и /ultrareview в Claude Code.
Могу ли я развернуть DeepSeek V4 у себя?
Да. И V4‑Pro, и V4‑Flash имеют открытые веса под лицензией MIT и доступны на Hugging Face. Учтите, что вес V4‑Pro составляет примерно 865 ГБ, поэтому требуется серьёзная инфраструктура. Claude Opus 4.7 доступен только в облаке и не может быть развёрнут самостоятельно.
Насколько DeepSeek V4‑Pro дешевле, чем Claude Opus 4.7?
DeepSeek V4‑Pro стоит $3,48 за миллион выходных токенов против $25,00 у Opus 4.7, то есть более чем в семь раз дешевле по выходу. V4‑Flash ещё доступнее — $0,28 за миллион выходных токенов.
Поддерживает ли DeepSeek V4 мультимодальные входы, например изображения?
В релиз‑нотах DeepSeek V4 нет мультимодальных бенчмарков или подробных спецификаций по приёму изображений. Для анализа изображений высокого разрешения или задач визуального рассуждения Opus 4.7 — более доказанный выбор. Он поддерживает изображения до 3,75 мегапикселей.
Могу ли я использовать свой существующий код API OpenAI или Anthropic с DeepSeek V4?
Да. API DeepSeek V4 поддерживает форматы OpenAI ChatCompletions и Anthropic Messages, поэтому переход обычно сводится к обновлению параметра модели. Учтите, что устаревшие эндпойнты deepseek-chat и deepseek-reasoner будут выведены из эксплуатации 24 июля 2026 года.