根據 1M AI News 監測,Anthropic Claude Code 團隊成員 Lydia Hallie 發布了對近兩週限額爭議的調查結果。結論是:高峰時段限額確實已收緊,100 萬 token 上下文會話的消耗增大,「這就是你們感受到的大部分原因」。她表示團隊修復了一些 bug,但強調「沒有任何一個 bug 導致了多收費」。
隨後她給出了省量建議:
沒有提及任何形式的限額重置或補償。
AI 播客主持人 Alex Volkov 將這份回應概括為「你拿的方式不對」(You’re holding it wrong),指出 Anthropic 自己把 100 萬上下文設為預設、把 Opus 作為旗艦模型推廣,現在卻建議付費用戶不要使用這些功能。他還注意到,與 OpenAI Codex 先前出現類似問題後為用戶重置配額不同,Anthropic 沒有做任何追溯補償。
「沒有多收費」的說法也與 Claude Code 自己的更新記錄存在張力。就在前一天發布的 v2.1.90 版本修復了自 v2.1.69 起存在的快取回歸 bug:使用 --resume 恢復會話時,本應命中快取的請求會觸發完整的 prompt cache miss,按全價計費。這個 bug 橫跨約 20 個版本才被發現和修復。Lydia 的回應中沒有提及這個已確認的計費異常。
自 3 月 23 日起,大量 Pro 和 Max 訂閱用戶反映限額異常快速耗盡。GitHub issue #41930 匯集了數百則報告,有用戶稱 Max 5x 計畫的額度在 1 小時內用完,有用戶稱一條簡單的單句回覆就將使用率從 59% 拉到 100%。Anthropic 3 月 30 日曾在 Reddit 上承認「用戶觸達限額的速度遠超預期」,並稱已列為團隊最高優先級。
這份回應的核心問題不在於技術細節是否準確,而在於它把責任幾乎全部推給了用戶的使用方式。Anthropic 賣的是「最強模型 + 最大上下文 + 最高推理能力」的 Pro/Max 訂閱,收的是每月 20 到 200 美元的費用,現在卻告訴用戶省著點用。