AI Pulse

DeepSeek发布V4模型,参数量破纪录且价格不到GPT-5.4一半

DeepSeek发布V4模型,参数量破纪录且价格不到GPT-5.4一半

DeepSeek发布了两个预览版新模型:V4 Flash和V4 Pro。它们都是混合专家(MoE)架构,上下文窗口达100万token——这意味着能直接把整个代码库或长文档喂给模型。过去需要切分、摘要或外部检索的任务,现在可能一步完成。

V4 Pro总参数量1.6万亿,其中每次推理激活490亿;这是目前公开可下载的最大权重模型,超过Moonshot的Kimi K 2.6(1.1万亿)和DeepSeek自家V3.2(6710亿)。它不是靠堆参数蛮干,而是用MoE控制实际计算量,在规模和效率间做了新平衡。

两家公司对比的基准测试显示,V4在推理类任务上已几乎追平当前所有顶尖模型——无论开源还是闭源;在部分编程竞赛中,表现与GPT-5.4相当;V4-Pro-Max甚至在某些任务上超过GPT-5.2和Gemini 3.0 Pro。推理能力不再是闭源模型的专属护城河。

但它在知识类测试中仍略逊于GPT-5.4和Gemini 3.1 Pro,DeepSeek自己判断,这条技术路径比最前沿模型慢3到6个月。追赶是真实的,但差距尚未消失,且集中在知识密度而非逻辑结构。

两个V4模型只支持文本,不处理音视频或图像;而多数对标闭源模型已支持多模态。它的战场很明确——先在纯文本推理+代码场景里做到又快又便宜。

V4 Flash输入成本0.14美元/百万token,输出0.28美元;V4 Pro输入0.145美元,输出3.48美元。两者均低于GPT-5.4、Gemini 3.1系列、Claude各版本。用同样预算,开发者现在能跑更多次高质量推理,或把高级模型嵌入更轻量级产品中。

就在发布前一天,美国政府指控中国AI实验室大规模窃取美方IP;Anthropic与OpenAI也公开指责DeepSeek通过‘蒸馏’方式复制其模型。技术进步正发生在地缘与法律摩擦最尖锐的前线。

📎 阅读原文 · TechCrunch

📬 订阅 AI Pulse

每天两次更新,不错过重要信号

▲ 回到顶部