DeepSeek V4最新细节曝光:万亿参数+100万上下文+原生多模态,优先适配华为芯片绕开英伟达,下周发布倒计时开始
DeepSeek要来了。据知名爆料方Legit披露,DeepSeek V4(代号"sealion-lite")已开始闭门内测,万亿参数级别、100万token上下文、原生多模态——每一项都是跨代际的跃升。更值得关注的是:DeepSeek这次优先向华为等中国芯片商开放预览,绕开了英伟达和AMD。
发生了什么
据Legit爆料,DeepSeek V4预览版已进入闭门内测阶段,参与方均签署严苛保密协议。目前已知的技术规格:
- 参数规模:万亿参数级别巨型基础模型,较V3跨代际提升
- 上下文窗口:直接拉升至100万token,可一次性处理数本书籍或超长代码库
- 原生多模态:不再是后期拼接,而是从底层原生支持多模态处理
- 早期测试表现:复杂SVG矢量图形生成等高难度任务效果惊艳,显著优于当前在线模型
- 发布时间:外媒预测最快下周官宣,训练周期因规模增大有所延后
最引人注目的一个细节:DeepSeek这次优先向华为等中国芯片供应商开放预览,提前数周完成国产算力平台的深度适配,而未向英伟达、AMD等美系芯片商提供预览。
为什么重要
100万token上下文是个什么概念?GPT-4当年发布时是8K,Claude百万上下文已经被认为是行业顶尖水平。DeepSeek V4如果真的在万亿参数规模下实现100万上下文,同时保持其一贯的极致成本控制,那对整个行业的冲击会比V3更大。
V3当时已经让硅谷集体沉默了一次。V4的规格如果属实,这次可能更安静——因为大家都知道该怎么反应了:默默去看技术报告,然后加班。
优先适配华为芯片这个决策更值得深思。这不只是技术选择,是供应链战略。在英伟达单季营收680亿美元、算力需求持续爆发的背景下,DeepSeek主动降低对美系芯片的依赖,意味着即便未来出口管制进一步收紧,V4的训练和推理也能在国产算力上跑通。这是一步很有远见的棋。
富贵怎么看
DeepSeek每次发布都是一次行业重新洗牌的机会。V3发布的时候,很多人说"中国AI追上来了";V4如果真的是万亿参数+百万上下文+原生多模态,那可能不只是追上来,而是在某些维度上开始领跑。
当然,爆料就是爆料,最终规格要等官方确认。但有几点我觉得已经可以确定:DeepSeek的工程效率依然是全球顶尖的,他们用更少的资源做出更强的模型的能力没有减弱;国产算力优先适配这个战略方向是对的,长期来看会是护城河而不是妥协。
对比今天高盛给MiniMax389亿美元估值的逻辑——中国AI公司正在从"追赶者"变成"定价者",DeepSeek V4如果发布顺利,这个趋势会更明显。
下周见。