DeepSeek V4 全系标配百万上下文,开源模型首次不靠版本分档
DeepSeek 发布 V4 系列预览版,并同步开源。最大变化是:100万(1M)token 上下文长度成为所有官方服务的默认配置,无论使用 V4-Pro 还是 V4-Flash,无论免费还是付费,都不再需要额外开通或升级。 这意味着什么:过去只有高价闭源模型或定制部署才能支撑的超长文档理解、多轮复杂对话、整本PDF分析等能力,现在对普通开发者和终端用户已无门槛。
V4 分为两个型号:V4-Pro 是旗舰版,V4-Flash 是轻量版。按 DeepSeek 自行公布的评测,V4-Pro 的推理能力已与顶级闭源模型持平,世界知识覆盖度仅次于 Gemini-Pro-3.1。 这意味着什么:它不再只是‘开源里最好的之一’,而是在关键能力上进入全球第一梯队,且全部代码和权重公开可查。
V4-Flash 虽在世界知识上略弱于 V4-Pro,但推理能力接近,且因参数更少、激活更小,API 响应更快、成本更低。 这意味着什么:开发者可以按任务选型——复杂逻辑用 Pro,高频轻量交互用 Flash,同一套接口、同一套文档、零迁移成本。
V4 采用新注意力机制,在 token 维度压缩信息,结合自研 DSA 稀疏注意力,实现百万上下文下的高效计算,显存和算力需求显著低于传统方案。 这意味着什么:长上下文不再是‘堆卡能跑就行’的奢侈功能,而是可部署、可量产、可嵌入终端产品的工程现实。
V4 已适配 Claude Code、OpenClaw、OpenCode 等主流 Agent 框架,在代码生成、文档处理等任务中实测提升明显;公司内部已用 V4-Pro 支撑 Agentic Coding 工作流。 这意味着什么:Agent 不再依赖多个模型拼接或反复重试,单次调用就能完成跨文件、跨步骤、带记忆的自动化任务。
API 已上线,只需将 model_name 改为 deepseek-v4-pro 或 deepseek-v4-flash,其余调用方式不变。 这意味着什么:今天写好的代码,明天就能切到 V4,不需要重写提示词、不改架构、不换 SDK。