DeepSeek v4 开源大模型发布,支持百万字上下文且可本地部署
DeepSeek 发布了新版开源大模型 DeepSeek v4,距上一版时隔一年。新版本分为 V4 Pro 和 V4 Flash 两个型号,其中 Pro 版在推理、数学、STEM 和竞赛代码等任务中表现领先。
DeepSeek v4 支持 100 万字(1M tokens)超长上下文。所有模型权重和代码全部开源,开发者可以将其部署在本地设备,不依赖云端服务。
官方称其 API 定价比 GPT-4.5 和 Claude Opus 4.6 便宜 10 到 50 倍。但这两个对比型号在公开信息中并不存在,实际参照对象尚不明确。