Tracks
Nếu bạn đang cân nhắc giữa Claude Opus 4.7 và DeepSeek V4 cho dự án tiếp theo, lựa chọn sẽ xoay quanh một đánh đổi thực sự: flagship đóng, trau chuốt của Anthropic so với đối thủ mở trọng số, định giá cực kỳ cạnh tranh của DeepSeek. Cả hai ra mắt cách nhau vài ngày trong tháng 4/2026 và đều tuyên bố đạt hiệu năng gần rìa tiên tiến về coding theo tác tử và suy luận với ngữ cảnh dài.
Điểm khiến phép so sánh này thú vị là DeepSeek V4 là mô hình mở trọng số đầu tiên đủ sức “ngồi chung mâm” với Opus 4.7 trên các điểm chuẩn tác tử. Đồng thời, Opus 4.7 đi kèm các tính năng như ngân sách tác vụ, mức nỗ lực xhigh và lệnh /ultrareview mới trong Claude Code mà DeepSeek hiện chưa có đối trọng tương đương.
Trong bài viết này, tôi sẽ so sánh Claude Opus 4.7 và DeepSeek V4 theo năm khía cạnh chính: coding và quy trình tác tử, các nhiệm vụ suy luận và tri thức, đa phương thức và sử dụng công cụ, giá, và khả năng truy cập mở trọng số. Bạn cũng có thể xem các hướng dẫn riêng về DeepSeek V4 và Claude Opus 4.7 để đào sâu từng mô hình.
Claude Opus 4.7 là gì?
Claude Opus 4.7 là mô hình flagship mới nhất của Anthropic, phát hành ngày 16/4/2026. Mô hình được thiết kế cho các quy trình tác tử phức tạp, chạy dài, nhấn mạnh đặc biệt vào kỹ nghệ phần mềm và tác vụ thị giác độ phân giải cao. Mô hình chấp nhận ảnh có cạnh dài đến 2.576 pixel, xấp xỉ 3,75 megapixel, cao hơn hơn ba lần so với các phiên bản Claude trước đó.
Bản phát hành giới thiệu mức nỗ lực xhigh mới nằm giữa high và max, ngân sách tác vụ bản beta công khai để kiểm soát chi tiêu token trong các lượt chạy dài, và lệnh gạch chéo /ultrareview trong Claude Code cho các phiên rà soát mã chuyên biệt. Anthropic cũng lưu ý Opus 4.7 là mô hình đầu tiên xuất xưởng với biện pháp bảo vệ an ninh mạng thời gian thực như một phần của sáng kiến Project Glasswing, biến nó thành phương tiện thử nghiệm cho các tính năng an toàn trước khi phát hành rộng rãi lớp Mythos.
Để xem Opus 4.7 hoạt động thực tế, hãy xem Hướng dẫn Benchmark Thực hành Claude Opus 4.7 của chúng tôi, kiểm tra liệu bộ nhớ tự phê bình của Opus 4.7 có cải thiện hiệu suất coding hay không, và Hướng dẫn API Claude Opus 4.7 giúp bạn xây dựng ứng dụng số hóa bằng Anthropic API. Bạn cũng có thể xem nó so kè với các mô hình flagship khác trong các bài so sánh với Gemini 3.1 Pro và GPT-5.5.
DeepSeek V4 là gì?
DeepSeek V4 là bản phát hành xem trước từ phòng thí nghiệm AI Trung Quốc DeepSeek, ra mắt ngày 24/4/2026. Mô hình có hai biến thể: V4-Pro, với tổng 1,6 nghìn tỷ tham số và 49 tỷ tham số hoạt động, và V4-Flash, với tổng 284 tỷ và 13 tỷ tham số hoạt động. Cả hai dùng kiến trúc Hỗn hợp Chuyên gia (Mixture of Experts) và đều có cửa sổ ngữ cảnh 1 triệu token mặc định trên mọi dịch vụ.
Tuyên bố nổi bật là hiệu quả cấu trúc. DeepSeek cho biết V4-Pro chỉ cần 27% FLOPs suy luận cho mỗi token và 10% bộ nhớ đệm KV so với tiền nhiệm V3.2 trong kịch bản ngữ cảnh 1M token. Cả hai mô hình đều mở trọng số theo Giấy phép MIT, có sẵn trên Hugging Face. API hỗ trợ cả định dạng API của OpenAI và Anthropic, và cả hai mô hình đều cung cấp chế độ “suy nghĩ” và “không suy nghĩ”.
Để xem chi tiết kiến trúc, điểm chuẩn và các tùy chọn truy cập của DeepSeek V4, hãy xem hướng dẫn DeepSeek V4 của chúng tôi. Đồng thời, nhớ đọc bài so sánh DeepSeek V4 vs GPT-5.5.
Claude Opus 4.7 vs DeepSeek V4: So sánh trực diện
Đây là phần tham chiếu nhanh trước khi đi vào chi tiết. Bảng dưới bao quát các tiêu chí quan trọng nhất cho quyết định giữa hai mô hình.
| Tính năng | Claude Opus 4.7 | DeepSeek V4-Pro |
|---|---|---|
| Nhà phát triển | Anthropic (đóng) | DeepSeek (mở trọng số, MIT) |
| Tham số | Không công bố | 1,6T tổng / 49B hoạt động |
| Cửa sổ ngữ cảnh | 1M token đầu vào / 128K đầu ra | 1M token đầu vào |
| Giá API (đầu vào / đầu ra trên 1M token) | $5,00 / $25,00 | $1,74 / $3,48 |
| SWE-bench Pro | 64,3% | 55,4% |
| Terminal-Bench 2.0 | 69,4% | 67,9% |
| GPQA Diamond | 94,2% | 90,1% |
| Mở trọng số | Không | Có (Giấy phép MIT) |
| Chế độ suy nghĩ | low, medium, high, xhigh, max |
Non-think, Think High, Think Max |
| Tích hợp tác tử | Claude Code, Cursor, ngân sách tác vụ, /ultrareview |
Claude Code, OpenClaw, OpenCode |
Coding và quy trình tác tử
Coding theo tác tử là khía cạnh bộc lộ rõ khoảng cách giữa hai mô hình. Trên SWE-bench Pro, bài kiểm tra giải quyết các issue thực tế trên GitHub trong các kho mã Python nguồn mở, Opus 4.7 đạt 64,3% so với 55,4% của DeepSeek V4-Pro. Đây là khoảng cách gần 9 điểm trên một điểm chuẩn được dùng rộng rãi như đại diện cho năng lực coding cấp sản xuất.
Trên Terminal-Bench 2.0, bức tranh sát hơn. Opus 4.7 đạt 69,4% và DeepSeek V4-Pro đạt 67,9%, chênh khoảng 1,5 điểm. Cả hai đều tụt lại đáng kể so với 82,7% của GPT-5.5 trên điểm chuẩn này, mô hình đang dẫn đầu rõ rệt.
| Điểm chuẩn | Claude Opus 4.7 | DeepSeek V4-Pro | Ghi chú |
|---|---|---|---|
| SWE-bench Pro | 64,3% | 55,4% | Nhà cung cấp báo cáo; Opus 4.7 dùng bộ khung Anthropic |
| Terminal-Bench 2.0 | 69,4% | 67,9% | Điểm DeepSeek từ ghi chú phát hành chính thức |
Opus 4.7 cũng đi kèm bộ công cụ tác tử chuyên biệt mà DeepSeek V4 chưa theo kịp. Mức nỗ lực xhigh, ngân sách tác vụ để kiểm soát chi tiêu token và /ultrareview trong Claude Code đều là các tính năng hướng sản xuất. DeepSeek V4 cho biết tích hợp với Claude Code, OpenClaw và OpenCode, và DeepSeek nói họ đã dùng V4-Pro cho coding tác tử nội bộ. Nhưng hệ sinh thái quanh Opus 4.7 chín muồi hơn cho các đội vốn đang dùng Claude Code.
Với các công việc kỹ nghệ ở cấp kho mã, Opus 4.7 là lựa chọn mạnh hơn. Khoảng cách trên SWE-bench Pro là thực và hệ công cụ tác tử xung quanh cũng phát triển hơn. DeepSeek V4-Pro cạnh tranh tốt ở các tác vụ terminal, nhưng chưa san lấp được khoảng cách trên điểm chuẩn coding khó hơn.
Suy luận và các nhiệm vụ tri thức
Trên GPQA Diamond, bài kiểm tra suy luận trình độ sau đại học trong khoa học và toán học, Opus 4.7 đạt 94,2% và DeepSeek V4-Pro đạt 90,1%. Cả hai đều mạnh, nhưng khoảng cách 4 điểm là đáng chú ý vì GPQA Diamond ngày càng bão hòa ở mức rìa tiên tiến. Gemini 3.1 Pro đạt 94,3% trên cùng điểm chuẩn, nên Opus 4.7 và Gemini gần như ngang nhau, còn DeepSeek hơi tụt sau.
Trên MMLU-Pro, DeepSeek V4-Pro-Max đạt 87,5%, cạnh tranh với các mô hình rìa tiên tiến cũ hơn. Trên GSM8K cho toán, mô hình đạt 92,6%. Đây là những con số mạnh cho một mô hình mở trọng số, dù Anthropic không công bố điểm MMLU-Pro của Opus 4.7 trong ghi chú phát hành, khiến so sánh trực tiếp khó hơn.
Opus 4.7 thực sự tỏa sáng trên Humanity's Last Exam, tập hợp câu hỏi trình độ sau đại học về khoa học, toán và nhân văn: đạt 46,9% khi không dùng công cụ và 54,7% khi có công cụ. Mô hình đứng đầu bảng xếp hạng khi không dùng công cụ, và đứng thứ hai sau biến thể Pro của GPT-5.5 (58,7%) khi dùng công cụ. DeepSeek V4 Pro thấp hơn đáng kể nhưng không quá xa, với 48,2% ở phiên bản dùng công cụ.
Có thể nói an toàn rằng Opus 4.7 là lựa chọn tốt hơn cho các bài suy luận khó nhất.
Sử dụng công cụ và tương tác máy tính
Opus 4.7 dẫn đầu ở cả hai điểm chuẩn sử dụng công cụ lớn trong so sánh này. Trên MCP-Atlas, kiểm tra hiệu năng qua các quy trình đa công cụ phức tạp, Opus 4.7 đạt 77,3%, cao nhất trong mọi mô hình. DeepSeek V4 Pro đạt 73,6%, tiến rất sát và là điểm cao nhất trong số các mô hình mở trọng số, đưa GLM-5.1 Thinking (71,8%) xuống vị trí thứ hai.
Trên OSWorld-Verified, đo khả năng hoàn thành tác vụ bằng cách điều khiển giao diện máy tính, Opus 4.7 đạt 78,0%, tăng từ 72,7% ở Opus 4.6 và ngang ngửa GPT-5.5 (78,7%).
DeepSeek V4 không công bố điểm trên OSWorld trong ghi chú phát hành. Thông báo chính thức nêu V4-Flash có hiệu năng ngang V4-Pro ở các tác vụ tác tử đơn giản, và V4-Pro là chuẩn mở dẫn đầu về các điểm chuẩn coding tác tử. Nhưng khi thiếu số liệu công bố về sử dụng máy tính, rất khó so sánh trực tiếp ở khía cạnh này.
Một kết quả bất ngờ là DeepSeek V4 Pro thực sự dẫn đầu ở tìm kiếm tác tử: điểm BrowseComp 83,4% của nó vượt Opus 4.7 (79,3%) và chỉ kém một điểm phần trăm so với quán quân GPT-5.5 (84,4%).
Nếu quy trình của bạn phụ thuộc vào điều phối đa công cụ hoặc tác tử sử dụng máy tính, Opus 4.7 là lựa chọn có bằng chứng tốt hơn. Tuy nhiên, với các trường hợp chuyên về tìm kiếm tác tử, DeepSeek V4 Pro là lựa chọn tốt hơn, càng đáng chú ý khi giá của nó thấp hơn rất nhiều.
Khả năng đa phương thức
Opus 4.7 có bước nhảy vọt đáng kể về thị giác. Mô hình giờ chấp nhận ảnh có cạnh dài đến 2.576 pixel, khoảng 3,75 megapixel, hơn gấp ba lần độ phân giải của các phiên bản Claude trước. Trên CharXiv Reasoning, kiểm tra suy luận thị giác với biểu đồ và hình vẽ, Opus 4.7 đạt 82,1% khi không dùng công cụ và 91,0% khi dùng công cụ, tăng từ 69,1% và 84,7% ở Opus 4.6.
Ghi chú phát hành của DeepSeek V4 không bao gồm điểm chuẩn đa phương thức hoặc thông số chi tiết đầu vào ảnh. Thông báo chính thức tập trung vào coding tác tử dựa trên văn bản và hiệu quả ngữ cảnh dài. Với các quy trình phụ thuộc vào phân tích ảnh độ phân giải cao, đọc biểu đồ dày đặc, hoặc tác tử sử dụng máy tính cần phân tích ảnh chụp màn hình, Opus 4.7 là lựa chọn rõ ràng dựa trên bằng chứng hiện có.
Giá
Đây là nơi DeepSeek V4 đưa ra luận điểm mạnh nhất. DeepSeek V4-Pro có giá $1,74 cho mỗi triệu token đầu vào và $3,48 cho mỗi triệu token đầu ra. Opus 4.7 có giá $5,00 cho mỗi triệu token đầu vào và $25,00 cho mỗi triệu token đầu ra. Tính riêng token đầu ra, Opus 4.7 đắt hơn hơn 7 lần so với V4-Pro.
DeepSeek V4-Flash còn rẻ hơn: $0,14 cho mỗi triệu token đầu vào và $0,28 cho mỗi triệu token đầu ra. Với khối lượng lớn nơi khả năng suy luận của V4-Flash là đủ, chênh lệch chi phí so với Opus 4.7 là rất lớn. Hướng dẫn DeepSeek V4 của chúng tôi cũng lưu ý V4-Flash còn rẻ hơn đáng kể cả những mô hình nhỏ như GPT-5.4 Nano.
Có một lưu ý quan trọng về giá của Opus 4.7. Mô hình dùng tokenizer mới ánh xạ cùng đầu vào thành khoảng 1,0 đến 1,35 lần số token nhiều hơn Opus 4.6, tùy loại nội dung. Ở các mức nỗ lực cao hơn, nó cũng tạo ra nhiều token đầu ra hơn. Anthropic khuyến nghị đo lường mức dùng token thực tế trên lưu lượng thật trước khi giả định giá theo token chuyển thành chi phí trực tiếp.
| Mô hình | Đầu vào (trên 1M token) | Đầu ra (trên 1M token) |
|---|---|---|
| Claude Opus 4.7 | $5,00 | $25,00 |
| DeepSeek V4-Pro | $1,74 | $3,48 |
| DeepSeek V4-Flash | $0,14 | $0,28 |
Với các đội vận hành pipeline tác tử khối lượng lớn nơi khoảng cách điểm chuẩn giữa Opus 4.7 và V4-Pro là chấp nhận được, mức giá của DeepSeek V4-Pro là một luận điểm nghiêm túc. Chênh lệch chi phí token đầu ra đủ lớn để thay đổi bài toán kinh tế của các quy trình tác tử chạy dài.
Truy cập mở trọng số và linh hoạt triển khai
DeepSeek V4 là mở trọng số theo Giấy phép MIT. Trọng số của cả V4-Pro và V4-Flash có trên Hugging Face. V4-Pro là một gói tải xuống 865GB, loại trừ phần cứng tiêu dùng, nhưng với những đội có hạ tầng tự lưu trữ, Giấy phép MIT đồng nghĩa không phụ thuộc API và toàn quyền kiểm soát triển khai.
Opus 4.7 là mô hình đóng. Mô hình có trên Claude API, Amazon Bedrock, Google Cloud Vertex AI và Microsoft Foundry. Không có tùy chọn tự lưu trữ. Với ngành nghề chịu quản lý hoặc đội có yêu cầu nghiêm ngặt về nơi lưu trữ dữ liệu, ràng buộc chỉ chạy đám mây là hạn chế thực sự, dù việc có mặt trên ba nhà cung cấp đám mây lớn giúp linh hoạt phần nào về nơi chạy suy luận.
DeepSeek cũng hỗ trợ cả định dạng API của OpenAI và Anthropic, nghĩa là việc chuyển mã hiện có sang V4-Pro thường chỉ cần cập nhật tham số model. Các endpoint cũ deepseek-chat và deepseek-reasoner sẽ bị ngừng vào ngày 24/7/2026, nên các đội đang dùng chúng cần lên kế hoạch chuyển sang deepseek-v4-flash hoặc deepseek-v4-pro.
Khi nào nên chọn Claude Opus 4.7 so với DeepSeek V4
Quyết định chủ yếu phụ thuộc vào ba yếu tố: mức độ bạn quan tâm đến khoảng cách điểm chuẩn ở các tác vụ coding khó, việc truy cập mở trọng số có phải yêu cầu bắt buộc hay không, và ngân sách token của bạn ở quy mô lớn trông như thế nào.
| Trường hợp sử dụng | Khuyến nghị | Lý do |
|---|---|---|
| Coding khó ở cấp kho mã (tác vụ kiểu SWE-bench) | Claude Opus 4.7 | 64,3% so với 55,4% trên SWE-bench Pro là khoảng cách đáng kể cho kỹ nghệ sản xuất |
| Điều phối đa công cụ và tác tử dùng máy tính | Claude Opus 4.7 | Dẫn đầu MCP-Atlas (77,3%) và OSWorld-Verified (78,0%); DeepSeek không công bố điểm ở bài sau |
| Phân tích ảnh độ phân giải cao và suy luận thị giác | Claude Opus 4.7 | 91,0% trên CharXiv khi dùng công cụ; hỗ trợ ảnh tới 3,75 megapixel |
| Pipeline tác tử khối lượng lớn, nhạy cảm chi phí | DeepSeek V4-Pro | Chi phí đầu ra $3,48 so với $25,00 của Opus 4.7; rẻ hơn hơn 7 lần mỗi token đầu ra |
| Triển khai tự lưu trữ hoặc cô lập mạng | DeepSeek V4 | Giấy phép MIT, trọng số trên Hugging Face; Opus 4.7 chỉ chạy đám mây |
| Tác vụ nhạy ngân sách với nhu cầu suy luận vừa phải | DeepSeek V4-Flash | $0,14 đầu vào / $0,28 đầu ra trên 1M token; suy luận tiệm cận V4-Pro ở nhiều tác vụ |
| Coding tác tử dài hạn với Claude Code | Claude Opus 4.7 | Ngân sách tác vụ, nỗ lực xhigh và /ultrareview được thiết kế riêng cho quy trình này |
| Nghiên cứu nguồn mở hoặc fine-tune | DeepSeek V4 | Giấy phép MIT cho phép sửa đổi và phân phối lại; Opus 4.7 không có tương đương |
Chọn Claude Opus 4.7 nếu...
- Công việc của bạn xoay quanh các tác vụ kỹ nghệ phần mềm khó. Khoảng cách 8,9 điểm trên SWE-bench Pro so với V4-Pro là khác biệt lớn nhất trong so sánh này, và được củng cố bởi nhiều bên thứ ba, gồm Cursor (70% so với 58% trên CursorBench) và Rakuten (giải quyết số tác vụ sản xuất gấp 3 lần so với Opus 4.6).
- Bạn xây dựng hệ thống tác tử sản xuất dựa vào sử dụng máy tính. Opus 4.7 dẫn đầu MCP-Atlas với 77,3% và đạt điểm cao trên OSWorld-Verified với 78,0%, nơi DeepSeek V4 không công bố điểm.
- Thị giác độ phân giải cao là một phần trong pipeline. Bước nhảy lên hỗ trợ 3,75 megapixel và tăng 13 điểm trên CharXiv Reasoning mở ra các ca như trích xuất biểu đồ dày đặc và tác tử dùng máy tính đọc ảnh chụp màn hình phức tạp.
- Bạn đã dùng Claude Code và muốn có đầy đủ bộ công cụ tác tử, gồm ngân sách tác vụ, nỗ lực xhigh và /ultrareview.
Chọn DeepSeek V4 nếu...
- Chi phí là ràng buộc chính. Ở mức $3,48 cho mỗi triệu token đầu ra so với $25,00 của Opus 4.7, V4-Pro rẻ hơn rất nhiều cho khối lượng nặng về đầu ra. V4-Flash ở mức $0,28 cho mỗi triệu token đầu ra thuộc hẳn một “tầng” chi phí khác.
- Bạn cần triển khai tự lưu trữ hoặc cô lập mạng. Giấy phép MIT và việc có trên Hugging Face khiến V4 là lựa chọn duy nhất ở đây; Opus 4.7 chỉ chạy đám mây.
- Bạn muốn fine-tune hoặc chỉnh sửa trọng số mô hình. Giấy phép MIT cho phép; điều khoản của Anthropic thì không.
- Bạn vận hành pipeline khối lượng lớn nơi bài toán kinh tế của Opus 4.7 không khả thi ở quy mô, và bạn chấp nhận đánh đổi hiệu năng ở các tác vụ khó nhất.
Kết luận
Nếu phải chọn một mô hình cho công việc coding tác tử sản xuất mà không bị ràng buộc ngân sách, tôi sẽ dùng Opus 4.7 (hoặc GPT-5.5). Khoảng cách trên SWE-bench Pro là thật, các điểm chuẩn sử dụng công cụ là tốt nhất trong so sánh này, và hệ công cụ tác tử quanh Claude Code phát triển hơn. Riêng cải tiến về thị giác, từ hỗ trợ 1,15MP lên 3,75MP với mức tăng 13 điểm trên CharXiv, đã là nâng cấp ý nghĩa cho quy trình đa phương thức.
Dù vậy, DeepSeek V4-Pro là đối thủ mở trọng số thuyết phục nhất với một mô hình rìa tiên tiến dạng đóng mà tôi từng thấy. Lập luận về giá rất khó bỏ qua ở quy mô: nếu bạn chạy hàng triệu token đầu ra mỗi ngày, chênh lệch giữa $3,48 và $25,00 cho mỗi triệu token sẽ làm thay đổi bài toán kinh tế về những gì khả thi. Và Giấy phép MIT thực sự có giá trị cho các đội cần linh hoạt triển khai hoặc muốn fine-tune.
Khuyến nghị thực tiễn của tôi: dùng Opus 4.7 cho các tác vụ coding và tác tử khó nhất, nơi hiệu năng trên điểm chuẩn chuyển hóa trực tiếp thành ít lỗi hơn và ít cần giám sát hơn. Dùng DeepSeek V4-Pro khi chi phí quan trọng và độ phức tạp tác vụ ở mức vừa phải. Dùng V4-Flash cho khối lượng lớn, rủi ro thấp, cần tối thiểu chi phí. Trong đa số trường hợp, các mô hình này không thực sự cạnh tranh cho cùng một nhóm người dùng.
Nếu bạn muốn trực tiếp thực hành với các mô hình này và xây dựng quy trình thực sự, tôi khuyên bắt đầu với lộ trình kỹ năng AI Agent Fundamentals, bao quát cách xây dựng và triển khai hệ thống tác tử bằng các mô hình rìa tiên tiến. Với kỹ thuật nhắc lệnh hoạt động trên cả Opus 4.7 và DeepSeek V4, khóa học Understanding Prompt Engineering là điểm khởi đầu tốt.
Claude Opus 4.7 vs DeepSeek V4: Câu hỏi thường gặp
Mô hình nào tốt hơn cho các tác vụ kỹ nghệ phần mềm?
Claude Opus 4.7 dẫn trước với biên độ đáng kể. Mô hình đạt 64,3% trên SWE-bench Pro so với 55,4% của DeepSeek V4-Pro, và đi kèm các công cụ tác tử thiết kế riêng như ngân sách tác vụ, mức nỗ lực xhigh và /ultrareview trong Claude Code.
Tôi có thể tự lưu trữ DeepSeek V4 không?
Có. Cả V4-Pro và V4-Flash đều là mở trọng số theo Giấy phép MIT và có trên Hugging Face. Lưu ý V4-Pro nặng khoảng 865GB, cần hạ tầng nghiêm túc. Claude Opus 4.7 chỉ chạy trên đám mây và không thể tự lưu trữ.
DeepSeek V4-Pro rẻ hơn Claude Opus 4.7 bao nhiêu?
DeepSeek V4-Pro có giá $3,48 cho mỗi triệu token đầu ra so với $25,00 của Opus 4.7, tức rẻ hơn hơn bảy lần về đầu ra. V4-Flash còn tiết kiệm hơn ở mức $0,28 cho mỗi triệu token đầu ra.
DeepSeek V4 có hỗ trợ đầu vào đa phương thức như hình ảnh không?
Ghi chú phát hành của DeepSeek V4 không bao gồm điểm chuẩn đa phương thức hoặc thông số chi tiết đầu vào ảnh. Với phân tích ảnh độ phân giải cao hoặc các tác vụ suy luận thị giác, Opus 4.7 là lựa chọn có bằng chứng tốt hơn. Mô hình hỗ trợ ảnh tới 3,75 megapixel.
Tôi có thể dùng mã API OpenAI hoặc Anthropic hiện có với DeepSeek V4 không?
Có. API của DeepSeek V4 hỗ trợ cả định dạng OpenAI ChatCompletions và Anthropic Messages, nên việc chuyển đổi thường chỉ cần cập nhật tham số model. Lưu ý các endpoint cũ deepseek-chat và deepseek-reasoner sẽ bị ngừng vào ngày 24/7/2026.

Tom là một nhà khoa học dữ liệu và giảng viên kỹ thuật. Anh viết và quản lý các bài hướng dẫn và bài blog về khoa học dữ liệu của DataCamp. Trước đây, Tom làm việc trong lĩnh vực khoa học dữ liệu tại Deutsche Telekom.