🔥 WCTC S8 全球交易賽正式開賽!
8,000,000 USDT 超級獎池解鎖開啟
🏆 團隊賽:上半場正式開啟,預報名階段 5,500+ 戰隊現已集結
交易量收益額雙重比拼,解鎖上半場 1,800,000 USDT 獎池
🏆 個人賽:現貨、合約、TradFi、ETF、閃兌、跟單齊上陣
全場交易量比拼,瓜分 2,000,000 USDT 獎池
🏆 王者 PK 賽:零門檻參與,實時匹配享受戰鬥快感
收益率即時 PK,瓜分 1,600,000 USDT 獎池
活動時間:2026 年 4 月 23 日 16:00:00 - 2026 年 5 月 20 日 15:59:59 UTC+8
⬇️ 立即參與:https://www.gate.com/competition/wctc-s8
#WCTCS8
DeepSeek V4 震撼出場: 與對手較量的十個第一性原理
下午三點半,加州大道的太陽已經開始往史坦福那邊斜。Zombie Café門口那條狗又趴在門口那把白椅子下面。桌上攤著三份打印件:Anthropic四月十六號的Opus 4.7發布稿,OpenAI四月二十三號Greg Brockman那場GPT-5.5發布會的逐字稿,還有今天凌晨剛出來、油墨還沒乾透的DeepSeek V4技術報告。
八天之內,三家把2026年第二季度的牌全部攤到桌面上。
咖啡喝完之前,硅谷Alan Walker把這事講清楚。不吹benchmark水,不講哪個模型"感覺更好",不寫公關稿。只從第一性原理拆——技術、芯片、價格、受眾、戰略、生態——三家2026年到底各自站在哪裡,誰在領先,誰在守城,誰在掀桌子。
_**01 **_開源 vs 閉源——這場仗的根本路線之爭
DeepSeek這次同步開放了V4-Pro和V4-Flash兩個模型,標準MIT License,權重直接上Hugging Face,誰都能下載、能微調、能商用。Claude Opus 4.7和GPT-5.5是純閉源——只給你一個API口子,模型權重你這輩子也摸不到。
很多人以為這是商業模式之爭。錯。這是 信任結構之爭。
閉源的護城河叫"你只能來我這裡"——把用戶鎖在我家門口排隊。開源的護城河叫"你離不開我這套生態"——把開發者、企業、整個國家的AI基建都長在我的架構上。一個是收費站,一個是高速公路。
DeepSeek用V3、R1、V3.2、V4連續四代開源把這件事做實了。今天全球任何一家想做本地部署、想在金融、醫療、政務、軍工裡跑大模型的公司,閉著眼睛第一個想到的就是DeepSeek。中國的國企、中東的主權基金、歐洲不想把數據交給美國雲的銀行——這些人不會用閉源API,永遠不會。Anthropic和OpenAI的賭注是相反的:前沿智能差距永遠在,最聰明的客戶最舍得花錢。
但這套賭注有時間窗口。R1出來那天到現在,開源和閉源的能力差距從一年縮到了三個月。三個月這個數字一旦變成一個月,閉源那條線就開始裂了。
_**02 **_模型架構——三家走的根本不是同一條路
V4-Pro 1.6T總參 / 49B激活;V4-Flash 284B總參 / 13B激活。1M上下文是出廠默認。架構核心是混合注意力(CSA + HCA交錯)+ Manifold-Constrained Hyper-Connections + Muon優化器 + FP4訓練。在1M token場景下,V4-Pro的單token推理FLOPs只用V3.2的27%,KV cache只用10%。V4-Flash更狠——FLOPs降到10%,KV cache降到7%。
這套架構的本質押注一句話:長上下文不是能力問題,是效率問題。V3那一代靠MoE把訓練成本砍下來,V4這一代要靠混合注意力把推理成本砍下來。一刀一刀往最貴的環節切。
GPT-5.5不一樣。OpenAI官方明說——這是GPT-4.5之後第一次從零重訓練的基模。前面5.1、5.2、5.3、5.4都是同一個base上的post-training迭代。5.5重做了架構、重做了預訓練語料、重做了agent導向的訓練目標。Pachocki在發布會上一句——“過去兩年的模型進步surprisingly slow”——其實是在說他們之前那個base打不動新的scaling曲線了,必須換引擎。
Claude Opus 4.7對4.6是 精準改良。Anthropic自己定位很明確:notable improvement,不是paradigm shift。SWE-bench Verified從80.8拉到87.6,視覺分辨率從1568px拉到2576px,整體吞吐是之前的3.3倍,tokenizer換了一次(同樣文本要多用1到1.35倍token)。Mythos Preview才是他們真正下一代的怪物,但Mythos Preview現在還壓在保險箱裡,只給12家合作夥伴試用,民用要等。
_**03 **_底層芯片——今天最被低估的那條新聞
主流英文媒體的標題都在寫V4的benchmark。錯。今天真正改變遊戲規則的那行字是 —— V4的部分訓練,是在華為昇騰上完成的。
發布同一天,華為宣布Ascend SuperPoD全系列對V4 Pro和Flash提供"full support"。寒武紀同步宣布兼容。SMIC港股當天跳漲10%。這三條線連在一起讀才是新聞——中國AI第一次把訓練和推理的全棧跑在國產硬件上,關鍵路徑上沒有任何一顆英偉達芯片。
這件事的分量,比所有benchmark加起來都大。
過去三年,美國對華最有效的杠杆只有一個:先進GPU出口管制。背後邏輯很簡單——你訓不出最強的模型,因為你買不到H100、買不到B200。V4的發布等於把這根杠杆的力矩砍掉一半。第一梯隊的開源模型,可以在非英偉達硬件上訓練並量產部署。這件事一旦被市場廣泛驗證,制裁這件事在AI領域基本等於無效。
Claude和GPT-5.5全部跑在NVIDIA H100/H200/B200 + Google TPU + Anthropic自研Trainium2的棧上。沒有第二條路,也沒有第二家供應商。這是壁壘,也是單點。哪天英偉達漲價或產能跟不上,這兩家全都得遭殃。DeepSeek現在多了一條獨立供應鏈——他們多了一張牌。
_**04 **_訓練成本結構——Muon、FP4、32T token怎麼拼出今天這個價格
V4技術報告裡寫得很清楚:用了Muon優化器(更快收斂、訓練更穩)、FP4精度(內存佔用直接腰斬)、兩階段post-training(各領域專家獨立SFT+RL,再用on-policy distillation統一蒸餾到同一個模型)、32萬億token的預訓練語料。這些不是花架子,是把訓練成本壓下來的真正機器。
結果就是——V4-Pro的API價格可以壓到V3.2之下,V4-Flash更跑到了開源小模型的最低區間。
GPT-5.5的玩法是 明著提價。每百萬token輸入5美元、輸出30美元,是GPT-5.4的兩倍。OpenAI的官方說法是"token效率提升40%,綜合成本只多20%"。漂亮話。但你拿生產環境的真實prompt跑一遍就知道——長prompt短輸出的工作流,帳單直接變成兩倍。OpenAI賭的是"前沿智能稀缺性"還能再撐一個周期,所以敢翻倍定價。
Claude Opus 4.7的玩法是 暗著提價。表面價格不變,5/25美元和Opus 4.6完全一致。但Anthropic自己的文件裡寫了——新tokenizer同樣的文本最多多用1.35倍token。換言之,標價沒動、帳單最多漲35%。這是高情商提價,但跑大流量的工程團隊會立刻在月度財報上看到。
DeepSeek反著來—— 降價。V3.2價格已經低,V4-Pro在它之下。等幾個月華為Ascend 950量產之後還會再降一波。這是中國互聯網的祖傳打法:用規模和效率把價格打到對手骨折,再用生態把人留住。
_**05 **_API定價——一美元能買多少智能
把價目表攤開看。
第三方評測Artificial Analysis給過一個等價對照:Intelligence Index相同分數下,GPT-5.5(medium)≈ Claude Opus 4.7(max),前者跑全套測試約 $1,200、後者約 $4,800。V4-Pro在類似智能水平上,是前兩者的 三到十分之一。
這不是"便宜一點"。這是把高端智能的單位成本整個拽下來一個數量級。
對一家月token消耗百萬美元的企業意味著什麼——以前同樣預算只能跑10條agent線,现在能跑80條。以前貴到不敢做的實驗,现在白菜價隨便試。這種事一旦在市場上被三、四家頭部企業證實(比如某家把核心客服agent從Opus切到V4-Pro省了70%成本,質量沒掉),剩下所有人都會跟。这是reflexive的——每多一家遷移,下一家遷移的心理門檻就降一截。
OpenAI和Anthropic的反擊只能在兩個方向上做:要么把閉源前沿差距重新拉大(Mythos要盡快放出來),要么在企業關係、合規、可靠性上把轉換成本做厚。前者要時間和錢,後者要客戶的耐心。
_**06 **_百萬上下文的真實經濟學
三家都上了1M context。表面看是個齊頭並進的數字。
但是 —— 能做和能便宜做是兩碼事。
V4-Pro在MRCR長文檢索基準上拿83.5分,超過Gemini-3.1-Pro的76.3,落後Claude Opus 4.6的92.9。CorpusQA在1M token上62%,超過Gemini 3.1 Pro的53.8%。retrieval accuracy在128K時94%、512K時82%、1M時66%。絕對值不是第一名,但是開源裡第一名,且是 開源裡第一個把1M做成默認的。
Claude Opus 4.7的1M context沒有長上下文加價——這是Anthropic的硬功夫。GPT-5.5也是。但是問題來了:三家推理單位成本差十倍,長上下文場景下這個差距被放大十倍。
簡單算一筆帳。一份500K token的法律文件讓模型分析一遍:Opus 4.7光輸入就$2.5,加輸出整體$3-4;GPT-5.5差不多;V4-Pro約$1。這種工作流如果一天跑1萬次,年化成本差距是幾百萬到一千多萬美元。中型企業跑 agentic 分析 workload 的最大瓶頸就是長上下文成本,V4-Pro 等於把這個瓶頸直接幹掉。
_**07 **_編碼與 Agent 能力——三家各守一方
把benchmark表攤開,這一局非常清楚。
_這套數據告訴你的不是誰更強,而是 _三家在重倉不同的agent形態。
Anthropic重倉的是 “在真實代碼庫裡改真實問題”。Cursor、Devin、Factory、Ramp這些客戶用Opus,跑的不是"寫一個todo app"這種玩具任務,而是"在200萬行代碼庫裡修一個三周前埋下的race condition"。NVIDIA把Codex部署給一萬名員工後說debug週期從幾天降到幾小時——這個數字Anthropic自己也能拿出來。Opus 4.7能把SWE-Bench Pro 64.3%刷出來——是真的在產線裡磨過的。
OpenAI重倉的是 “Agent操作整台電腦”。Terminal-Bench 2.0、OSWorld、Codex裡跑shell——這些都指向一個未來:AI不只是給你寫代碼,AI替你直接打開終端、敲命令、操作你的Mac。Brockman發布會那句"agentic computing at scale"不是套話,是OpenAI下一個十年的slogan。
DeepSeek重倉的是 “開源開發者的公共智能資產”。它不會贏SWE-Bench Pro,但它把開源世界的天花板抬到了Codeforces 3206分。這意味著——任何一家創業公司不需要付Anthropic或OpenAI一分钱,就能在自己機器上跑一個接近頂級競賽級別的代碼模型。
_**08 **_受眾人群——三家瞄準的是三個完全不同的錢包
Anthropic的客戶列表你掃一眼就明白方向:PayPal、Hex、Devin、Factory、Ramp、Notion、GitHub Copilot、Stripe、Block——全是金融科技和企業SaaS。這些公司有兩個共同點:錢多,對錯誤零容忍。Opus 4.7的5/25美元定價、安全審計、合規敘事、Bedrock/Vertex AI/Foundry多雲部署——所有這些都是衝著採購流程長達半年、簽三年合同、年付百萬美元的那種客戶做的。Forge Global上Anthropic估值破 1萬億美元、超過OpenAI的8800億,資本買的就是這套 “企業客戶密度” 的故事。
OpenAI的底盤是消費者+開發者+企業三輪驅動。ChatGPT周活近10億,是它真正的護城河。GPT-5.5在Plus/Pro/Business/Enterprise同步推送,API翻倍定價的代價被C端流量摊掉。Codex開發者群體過去半年從幾十萬漲到幾百萬,NVIDIA、Stripe、Shopify這些公司大規模內部部署。OpenAI玩的是規模——它每一筆單位成本都被巨大的分母攤薄。
DeepSeek的受眾列表完全不一樣。中國國企、銀行、醫院、政府機關;中東不願把數據交給美國雲的主權基金;歐洲對GDPR嚴格的醫藥公司;東南亞和拉美希望主權AI的發展中國家政府。還包括硅谷一群"我就是想自己跑模型不想付API"的硬核開發者和startup。這群人加起來,不是OpenAI那種10億C端用戶的規模,但是是另一種規模 —— 地緣和主權層面的規模。
三個完全不同的錢包,三個完全不同的銷售邏輯。
_**09 **_安全與網絡攻防姿態——三家對"模型變成武器"的態度截然不同
Anthropic四月初放出了 Project Glasswing。Opus 4.7是第一個內置"自動檢測並拒絕高風險網絡安全請求"的生產模型。Anthropic自己在技術報告裡寫得直白——訓練時刻意壓低了進攻性網絡能力。CyberGym得分73.1,跟Opus 4.6(73.8)幾乎持平,是政策選擇不是能力天花板。Mythos Preview在同一個benchmark上能到83.1,但只給12家合作夥伴用,連這個名單本身都是機密——前幾天泄漏過一次(一個Discord社群猜中了URL),Anthropic官方還出了一份事故報告。
OpenAI走的是另一條路。GPT-5.5系統卡裡寫明:達到Preparedness Framework裡的"High"級別網絡風險,未到Critical。OpenAI的方案不是降低模型能力,而是裝更嚴格的輸入分類器、加身份驗證、推所謂"cyber-permissive access program"——你想用進攻性能力可以,先把身份證拿出來。Mia Glaese在發布會用"first identity-verified release"這種說法,潛台詞是——能力我給你,但責任你扛。
DeepSeek V4技術報告裡這一塊基本是空的。開源社群的傳統就是"代碼我開放,你拿走,你負責"。這種態度對監管者來說是噩夢,對獨立開發者來說是天堂。但它的真正風險在於——任何人都能在自家GPU上跑一個能力接近Opus 4.7的模型,沒有任何攔截層。這件事監管會怎麼走,2026下半年到2027年是關鍵窗口。
_**10 **_市場戰略——三條完全不同的押注,但只有一條會成為最大的
DeepSeek要做的是 AI界的Linux。
用開源+極致成本+國產芯片把全球AI infra民主化。一旦每個國家、每家企業、每個開發者都在你的架構上跑——你不靠license費賺錢,你靠生態價值收稅。今天Hugging Face下載量、明天每一個國產芯片廠商的SDK都默認對DeepSeek做適配、後天每個新一代AI開發者第一行代碼就是 from deepseek import…。這套打法二十年前Linus Torvalds玩過,今天梁文鋒在玩同一套。區別是LLM比操作系統貴一萬倍、熱錢多一千倍、地緣價值高一百倍。
Anthropic要做的是 全球前沿企業的AI操作引擎。
它的目標客戶不是十億C端用戶,是全球前一萬家公司的IT和合規預算。Opus 4.7的"窄但深"定位、Mythos Preview的稀缺供給、Bedrock/Vertex/Foundry的多雲分發、Forge上1萬億美元的估值——這些拼到一起就是一個故事:你的法務團隊、財務團隊、研發團隊、客服團隊,每一項關鍵工作都跑在我的模型上,永遠不能down。這是律所和投行的邏輯,不是Facebook的邏輯。客戶少,單價高,轉換成本接近無窮。
OpenAI要做的是下一個 Windows + Office + Google 合一的超級應用。
ChatGPT是它的分發權(10億周活),Codex是它的開發者鎖定,Operator是它的電腦操作入口,新Mac App是它的桌面佔位。Brockman發布會那句"agentic computing at scale"——OpenAI想做的不是"一個聰明的chatbot",是 未來人類用電腦的方式本身。你打開電腦第一眼看到的是它,工作交付通過它,文檔生成在它,郵件回覆經它,會議總結靠它。這是Bill Gates在1990想做、Steve Jobs在2007想做、但真正可能在2027–2030被OpenAI做成的事。GPT-5.5翻倍定價是這場賭局的一筆保證金。
三條路都通羅馬。但只有一條會成為最大的——而最大的那條,決定下個十年AI產業的財富分布。
三家在同一周攤完牌。
Claude Opus 4.7是 穩 的——窄但深,企業願意簽三年合同、付百萬美金那種穩。它的贏面在於:任何一家想用AI做生產力工具但又怕出錯的中型以上企業,找不到比Opus更可靠的選擇。
GPT-5.5是 貴 的——翻倍定價、超級應用野心、Agent能力領跑命令行和計算機操作。它的贏面在於:如果"AI替你操作整台電腦"在2027年成真,OpenAI就是這場革命的Microsoft 1995。如果不成,5/30美元的定價會變成一個昂貴的註腳。
DeepSeek V4是 狠 的——開源、低價、國產芯片,把另外兩家的護城河一段一段挖出豁口。它的贏面在於:如果地緣碎片化繼續推進,全球AI infra分裂成中美兩套生態,DeepSeek就是中國生態的Linux。這件事的概率不是50%,但已經遠高於一年前的5%。
規則一旦被改,就不會被改回去。
下午四點半,加州大道的風開始涼。Zombie Café的杯子空了。Alan把三份打印件疊好,揣進背包。走出門口,那條狗抬了一下頭,又趴下了。