henry 发自 凹非寺
量子位 | 公众号
ChatGPT三岁生日这一天,硅谷热议的新模型来自DeepSeek。
准确说是两款开源模型——DeepSeek-V3.2和DeepSeek-V3.2-Speciale。
这俩模型火到什么程度呢?
有网友表示,在去圣地亚哥的(疑似赶场NeurIPS 2025)航班上,有30%的乘客都在对着DeepSeek的PDF两眼冒光。

除了普通网友,奥特曼也是急急急急:不仅启动红色警报,还临时推迟了在ChatGPT上投放广告的计划。
与此同时,那一头的谷歌也没被放过。
网友直接 “灵魂喊话” 谷歌Gemini团队:别睡了,DeepSeek回来了。

而且,这还不是V4/R2。
换句话说,大菜还没上呢,光凉菜就已经让硅谷吃饱了。

换句话说,DeepSeek与顶尖模型的差距已经不是技术问题,而是经济问题。
只要卡够,好的开源不比闭源差!
想到会便宜,没想到会便宜这么多除了性能上持平顶尖闭源模型外,DeepSeek-V3.2系列这次也着实让大家见识到了“智能便宜到不用计费”。

而随着输出token个数的增加,这个差距最高可拉大到43倍。
这是什么概念呢?就好比你让大模型一次性“写”出一套《三体》三部曲,用GPT-5你大概需要八百块,Gemini 3 Pro需要一千块。
用DeepSeekV3.2只需要差不多35块钱!
所以,性能差不多,价格却能差出几十倍。该选哪边,答案不用多说了吧?
对此,有网友表示,DeepSeek-V3.2这一经济实惠的开源模型正在挑战Gemini3.0 Pro。

当然,这并不是说DeepSeekV3.2毫无缺点。
正如一位网友指出的,同样解决一个问题,Gemini只需要2万个token,而Speciale则需要花费7.7万个。
(这实际上也是上面长下文RL的trade off)

不过,低廉的价格也在一定程度上弥补了现阶段Speciale版本的弱点。
总的来说,DeepSeek仍旧是更实惠的那个。
除此之外,也许更让硅谷感到头疼的就是DeepSeek-V3.2还可能直接在国产算力(华为、寒武纪)中部署,而这将进一步拉低模型推理的成本。
此前,在发布DeepSeek-V3.2-Exp时,DeepSeek在发布首日就针对华为Ascend硬件和CANN软件栈进行了优化。
这次的DeepSeek-V3.2系列虽然没有明确表示,但大概率也会延续此前的战略。
换句话说,难过可能的不止是谷歌和OpenAI,还有他们的好兄弟——英伟达。

然而,这里的价格还只是模型公司的定价,并非推理的实际成本。
尽管我们无法得知各家模型实际的推理成本,但从DeepSeek的技术报告中可以看到一个清晰趋势:
相较于前一代模型DeepSeek-V3.1-Terminus,DeepSeek-V3.2在最长上下文(128K)场景下,成本降低了75%到83%左右。

这意味着随着注意力机制与后训练的不断优化,底层推理成本正在持续下探。
正如一位网友所总结的那样:
DeepSeek证明了:实现强大的AI,并不一定需要夸张的资本投入。

参考链接
[1]https://x.com/airesearch12/status/1995465802040983960
[2]https://www.nbcnews.com/tech/innovation/silicon-valley-building-free-chinese-ai-rcna242430
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263550 电子证书1157 电子名片68 自媒体91237