新鲜 / 健康 / 便利 / 快速 / 放心
发布短短一天!整个科技圈直接炸锅了!
DeepSeek公司在官方X平台大“砍”一刀,宣布V4-Pro的API价格直接下调75%,5月5号结束。
这一消息直接让美硅谷疯狂了!但这还没完呢,更狠的是,Deepseek再补一刀——全系两款模型的缓存命中价格,直接干到首发价的十分之一,V4-Flash百万token缓存命中才0.02元,V4-Pro也才0.025元。
两天之内连续两刀,直接“砍”碎美技术封锁美梦。而且这时间选得也太巧妙了,就在OpenAI刚把GPT-5.5端上桌、全世界的目光都死死盯着硅谷的时候,中企闷不吭声就亮出了王牌,打了所有人一个措手不及。
咱们往前倒一倒看,4月23号,OpenAI刚发布了GPT-5.5,吹得天花乱坠,一口咬定是“迄今最智能的模型”,价格也跟着飘上天:输入每百万token要5美元,输出直接飙到30美元,折算成人民币,输出一次百万token就得两百多块,普通人看了都得望而却步。
更有意思的是,OpenAI这时候刚完成1220亿美元的融资,估值直接飙到8520亿美元,可内部却悄悄预计,2026年要亏损140亿美元。说白了,硅谷的顶级模型走的就是“做贵了再慢慢卖”的路子,模型吹得越狠,定价越高,亏得就越多。而DeepSeek偏不按常理出牌,模型刚一发布,价格就直接砸到地板上,反其道而行之,主打一个出其不意。
可能有人没概念,这价差到底有多离谱?V4-Pro折扣后输出价才6块人民币,而GPT-5.5同一指标要两百多块,整整差了三十多倍;更便宜的V4-Flash,输出只要2块钱,跟GPT-5.5比,直接差了上百倍。之前就有媒体算过一笔账,GPT-5.5输出端单价和DeepSeek V3.2就差了71倍,这次V4一降价,这个差距只会更大,简直是碾压级的优势。
这对中小企业和独立开发者来说,可不是“便宜一点”那么简单,这简直是打开了新世界的大门。以前想跑个百万字的长文本任务、做个智能代理,一看OpenAI的账单,直接就打退堂鼓了。现在DeepSeek把门槛一脚踩进泥里,这些以前想都不敢想的场景,现在随便玩都不心疼成本,普通人也能玩得起高端AI了。
肯定有人要抬杠,价格这么便宜,东西能打吗?会不会是粗制滥造?DeepSeek团队自己说得特别克制,称V4-Pro的使用体验比Sonnet 4.5好,交付质量接近Opus 4.6非思考模式,但跟Opus 4.6思考模式还有点差距。而Anthropic在4月16号刚发布的Opus 4.7,综合性能几乎是全球第一,算是目前的行业天花板。
换句话说,V4和全球最强模型的差距,也就两个月左右的迭代时间。就这点差距,配上几十倍的价格优势,对绝大多数应用场景来说,性价比的天平已经彻底倾斜了,谁会放着便宜又好用的不用,去买贵得离谱的硅谷模型?
但真正让美国坐不住的,还不光是这几个价格数字,而是V4背后的国产算力支撑,这才是最致命的。发布当天,华为昇腾、寒武纪、海光信息、摩尔线程、沐曦、昆仑芯、平头哥、天数智芯八家国产芯片,全部完成了Day-0级适配。意思就是,模型一上线,国产芯片就能直接跑,不用等、不用改。
这在中国大模型历史上是头一遭,不是说“以后会兼容”,而是从出生那一刻起,就带着纯纯的国产血统,彻底摆脱了对英伟达芯片的依赖。
DeepSeek V4发布仅一天就暴降75%,这一刀砍下去,砍掉的不是几块钱的差价,而是实实在在的行业壁垒。它砍掉的是“高端AI只能由硅谷定价”的旧共识,砍掉的是“没有英伟达就玩不转顶级模型”的老剧本,砍掉的是美国花了四年苦心经营的技术封锁的心理优势。返回搜狐,查看更多