ANTHROPIC

Anthropic價格

ANTHROPIC
$0
+$0(0.00%)
無數據

*頁面數據最近更新時間:2026-04-17 10:18 (UTC+8)

至 2026-04-17 10:18,Anthropic (ANTHROPIC) 股票報價為 $0,總市值為 --,本益比為 0.00,股息率為 0.00%。 當日股票價格在 $0 至 $0 之間波動,當前價格較日內低點高 0.00%,較日內高點低 0.00%,成交量為 --。 過去 52 週,ANTHROPIC 股票價格區間為 $0 至 $0,當前價格距 52 週高點 0.00%。

ANTHROPIC 關鍵數據

本益比0.00
股息收益率 (TTM)0.00%
流通股數0.00

瞭解更多 Anthropic (ANTHROPIC) 資訊

Anthropic (ANTHROPIC) FAQ

Anthropic (ANTHROPIC) 今天的股價是多少?

x
Anthropic (ANTHROPIC) 當前報價 $0,24 小時變動 0.00%。52 週交易區間為 $0–$0。

Anthropic (ANTHROPIC) 的 52 週最高價和最低價是多少?

x

Anthropic (ANTHROPIC) 的本益比 (P/E) 是多少?說明了什麽?

x

Anthropic (ANTHROPIC) 的市值是多少?

x

Anthropic (ANTHROPIC) 最近一季的每股收益 (EPS) 是多少?

x

Anthropic (ANTHROPIC) 現在該買入還是賣出?

x

哪些因素會影響 Anthropic (ANTHROPIC) 的股價?

x

如何購買 Anthropic (ANTHROPIC) 股票?

x

風險提示

股票市場具有高風險和價格波動性。您的投資價值可能會增加或減少,且您可能無法收回全部投資金額。過往表現並非未來業績的可靠指標。在做出任何投資決策之前,您應仔細評估自身的投資經驗、財務狀況、投資目標和風險承受能力,並自行進行研究。如有需要,請諮詢獨立的財務顧問。

免責聲明

本頁面內容僅供參考,不構成投資建議、財務建議或交易推薦。Gate 不對因此類財務決策而造成的任何損失或損害承擔責任。此外,請注意 Gate 可能無法在某些市場和司法管轄區提供全部服務,包括但不限於美國、加拿大、伊朗和古巴。有關受限地區的更多資訊,請參閱《用戶協議》的相關條款。

其他交易市場

Anthropic (ANTHROPIC) 今日新聞

2026-04-17 03:21

紅杉資本在 Alfred Lin 與 Pat Grady 牽頭下為新基金募得 $7 十億美元

Gate News 訊息,4 月 17 日——紅杉資本(Sequoia Capital)在 Alfred Lin 與 Pat Grady 共同管理的框架下,已募得約 $7 十億美元用於一支新的基金,這也意味著該公司在兩人領導之下的首次重大募資。該資金旨在支持大型非上市公司,特別是需要在運算基礎設施上投入大量支出的 AI 新創公司,包括 OpenAI 與 Anthropic。 這支 $7 十億美元的基金規模約為紅杉資本在 2022 年募得的 34 億美元基金的兩倍,能夠為資本密集型的 AI 產業提供顯著更多的可部署資金。 此次募資反映了紅杉資本的策略轉向。該公司過去歷來避免在同一類別中直接投資競爭對手——例如在 2020 年,它放棄了一筆對支付公司 Finix 的 $21 百萬美元投資,以避免與投資組合公司 Stripe 之間產生衝突。如今,紅杉資本持有多家競爭的 AI 公司股份,包括 OpenAI 與 xAI (Elon Musk 的 AI 事業),顯示其在 AI 時代的投資組合建構方式迎來了新的取徑。

2026-04-17 01:13

Anthropic 發布 Claude Opus 4.7,附帶資安防護措施

《Gate News》訊息,4 月 17 日 — Anthropic 宣布 Claude Opus 4.7,這是一款具備防護措施的 AI 模型,目的在於阻擋高風險的資安請求。此次發布建立在 2 月推出的 Claude Opus 4.6 基礎之上,並且預告 Anthropic 更進階的 Mythos 類模型將進行更大規模的推出。Mythos Preview 於本月初推出,雖然比 Opus 4.7 更有能力,但目前僅透過 Anthropic 的資安計畫 Project Glasswing,向少數公司提供。 Opus 4.7 在代理型工作流程與視覺能力方面帶來了顯著改進。自主程式碼的表現已在 SWE-bench Pro(廣泛使用的軟體工程任務基準)提升至 64.3%,相較於先前版本的 53.4%。影像處理現在支援超過三倍的解析度;在標準測試中,視覺敏銳度的準確性也由 54.5% 提升至 98.5%。訓練期間已實作有意的資安限制;在資安效能基準 CyberGym 上,Opus 4.7 得分為 73.1%,低於 Mythos Preview 的 83.1%。 Anthropic 在預先發布測試後限制了 Mythos Preview;該測試揭露了數千項高嚴重度漏洞,包括一個在 OpenBSD 上已 27 年未被偵測到的缺陷。進行漏洞研究、滲透測試或紅隊演練的資安研究人員,可以申請使用 Anthropic 的 Cyber Verification Program 進行防禦性存取,而不會預設遭到拒絕。來自 Opus 4.7 的防護措施相關回饋,將用於指導未來模型的發布。

2026-04-17 00:52

證券業與金融市場協會警告:Mythos AI 可能對 SEC 的市場追蹤資料庫構成風險

Gate News 訊息,4 月 17 日——證券業與金融市場協會 (SIFMA) 於昨天 ( 4 月 16 日) 向美國財政部部長貝森特寄出一封信,敦促採取行動,以保護美國投資人免受由 Anthropic 的 Mythos 人工智慧模型所帶來的網路安全風險;同時避免影響美國證券交易委員會的「合併審計追蹤」(Consolidated Audit Trail)(CAT) 系統。 SIFMA 表示,Mythos 可能使惡意行為者攻擊 CAT 資料庫,進而可能促成大規模身份盜竊、揭露個別交易投資組合,並放大系統性金融風險。該協會要求貝森特立即停止在資料庫中蒐集散戶交易者的個人身分識別資訊,並要求銷毀 CAT 已蒐集的個人交易資料。 CAT 系統已被 SEC 用於市場監控,並調查可疑交易活動。

2026-04-17 00:22

美國政府準備向聯邦機構提供 Anthropic 的 Mythos AI 模型

Gate News 訊息,4 月 17 日——根據一份被 Bloomberg News 審閱的備忘錄,美國政府正準備讓 Anthropic 的 Mythos AI 模型提供給主要的聯邦機構使用。白宮管理與預算辦公室(OMB)聯邦首席資訊官 Gregory Barbaccia 在 4 月 14 日通知內閣部會官員,表示 OMB 正在設置保護措施,使機構得以開始使用這款高度受控、嚴密守護的 AI 工具。 此舉之際,人們擔憂若 Mythos 被濫用,可能會大幅提高資安風險。Anthropic 已將該模型的發布限制在少數科技公司與金融機構,並敦促他們評估自身的資安弱點。財政部一直在尋求取得 Mythos 的存取權,以找出其自家系統中的軟體漏洞。在 Anthropic 公開披露 Mythos 的存在之日,財政部長 Scott Bessent 與聯準會主席 Jerome Powell 召集華爾街領導人,鼓勵他們使用該模型進行資安測試。 這項計畫凸顯出:儘管過去曾有緊張,政府仍持續關注 Anthropic。五角大廈在 2024 年曾因 AI 防護措施爭議而將 Anthropic 視為供應鏈威脅,但 Anthropic 在 3 月取得法院命令,阻止禁止政府使用其技術。Barbaccia 在電郵中寫道,在可能向機構釋出修改版之前,政府正在「與模型供應商、其他產業夥伴以及情報社群密切合作,以確保已建立適當的護欄與防護措施」。

2026-04-16 04:31

OpenAI、Anthropic 和 Google 攜手打擊中國競爭者的 AI 模型蒸餾

Gate News 訊息,4 月 16 日 — 根據彭博社(Bloomberg)報導,OpenAI、Anthropic 以及 Google (Alphabet 子公司) 已開始合作,以抵禦中國競爭對手試圖從美國的前沿 AI 模型中擷取輸出,藉此增強自身能力的努力。這三家公司正透過 Frontier Model Forum 共享資訊;該論壇是非營利性的產業組織,由 OpenAI、Anthropic、Google 與 Microsoft 於 2023 年共同創立。 這項倡議旨在辨識違反服務條款的對抗性資料蒸餾企圖。資料蒸餾指的是一類技術,藉由分析先進 AI 模型的輸出來複製其表現,使競爭者能在不直接取得專有技術的情況下,開發出可比的系統。

Anthropic (ANTHROPIC) 熱門動態

Falcon_Official

Falcon_Official

15分鐘前
建設時代已經結束,部署時代已經開始。 過去三年,全球人工智慧的故事圍繞著基礎設施數據中心、GPU、晶片和雲端容量。那一章並未結束,但現在正進行著決定性的轉變。人工智慧的重心正從建造管道轉向讓價值流動其中。到2026年,AI應用層將成為真正的競爭和真正的回報所在。 基礎設施投資規模 #AIInfraShiftstoApplications Context( 要了解我們的未來方向,你需要了解已經建造了多少: - 微軟、Alphabet、亞馬遜和Meta這四大超大規模公司合計在2026年指導的資本支出接近 )十億美元,幾乎全部用於AI數據中心、晶片和網絡 - 亞馬遜CEO安迪·賈西(Andy Jassy)確認公司今年將在資本支出上花費 **-$700 十億美元**,大部分用於AI基礎設施,並宣稱「我們不會保守」 - Gartner預測全球AI支出到2026年將達到 **2.53萬億美元**,同比增長44%,其中基礎設施佔比 **54% $200 $1.36兆美元(** 的總支出 管道已經建好,現在的問題是:有什麼在流經它們? 應用層接管; 每個主要研究公司和企業報告都傳達著明確的訊號: **代理AI是2026年的決定性主題。** Gartner預測,到2026年底,**40%的企業應用將嵌入AI代理**,而2025年不到5%。這不是漸進式的採用——而是企業軟體設計和使用方式的結構性重組。 PitchBook在2026年第二季度分析師報告中確認,風投支持的代理AI公司在2025年僅此一年就籌集了 **242億美元**,佔其2015年至2024年累計風投交易價值的73%。資金流動的速度表明真正的類別形成正在進行。 目前實際部署的內容包括: - **微軟** 正在測試嵌入在M365、Word、Excel和Teams中的全天候Copilot代理,靈感來自OpenClaw架構,預計在2026年6月的Microsoft Build大會上推出重大新功能 - **AWS** 通過Amazon Bedrock AgentCore預覽版推出其代理登記簿,這是一個企業AI代理隊伍的治理和發現層,與微軟和Google Cloud競逐控制協調層 - **Cloudflare + OpenAI** 在2026年代理週期間推出企業用Agent Cloud,提供運行AI代理的計算和存儲原語,實現零閒置成本 - **甲骨文** 正在投入 )十億美元建設數據中心,同時將AI深度推入Fusion代理應用,涵蓋人力資源、財務和供應鏈客戶 - **Anthropic的Claude合作網絡** 於2026年3月啟動,承諾投入 $50 百萬美元,直接針對企業AI大規模部署 截至2026年第二季度,最常見的企業部署類別包括:客戶服務自動化 $100 49%的部署(,行銷優化 )46%(,安全運營 )46%(,以及IT支援 )45%(。 這對加密貨幣與區塊鏈意味著什麼: AI應用的轉變也在重塑鏈上市場。即使比特幣下跌23%、以太坊下跌32%,AI代幣仍是**2026年第一季唯一盈利的加密領域**。 關鍵數據點: - **Bittensor )TAO(** 在2026年第一季漲超40%,由於 )百萬美元的第一季協議收入和Nvidia CEO黃仁勳公開支持去中心化AI訓練 - AI加密貨幣領域現已接近 **$43 十億美元市值**,是本周期唯一處於盈利狀態的類別 - 2026年3月25日,AI加密貨幣領域的總市值在單一交易日內激增 **10.67%**,而更廣泛的山寨幣市場則下跌 - **ASI聯盟 $29 FET(** 推動自主代理網絡,用於DeFi執行、供應鏈自動化和去中心化AI協調 - **CoreWeave** 起初是一家加密挖礦公司,與Jane Street簽署了 **)十億美元的AI雲端協議**,象徵著加密基礎設施與AI應用需求的完整融合 底線: 基礎設施的建設為AI奠定了基礎,應用層則賦予其功能。從《財富》500強企業到DeFi協議,現在的競爭不在於誰擁有最好的模型,而在於誰能最快部署最具能力、受治理且準備好生產的AI代理。在這一階段,贏家不會是建造最多計算能力的人,而是那些在其上建立最佳應用的人。 轉變並非遙遠,它已經到來。
1
5
0
0
Tim哥

Tim哥

25分鐘前
我終究還是放棄了 Claude Code 原本就頻繁“封號”的 Claude,如今直接走到了 KYC 這一步,雖然我還沒有被提醒,但也怕買來的帳號不靠譜 不由思索,AI 開始做實名認證,這到底是在提升安全,還是在無形中抬高門檻? 表面上看,這是 Anthropic 在朝著合規化邁進;但換個角度,也暴露了一個不太體面的現實:當工具強大到足以影響現實世界,企業的第一反應,不再是信任用戶,而是管理用戶。 過去我們用搜尋引擎、聊天室,甚至早期的 ChatGPT,從來不需要證明“我是我”。而現在,一個 AI 助手的使用流程,卻越來越像開戶或跨境轉帳,KYC、驗證、合規,一步不落。 我覺得這不是多一道流程,而是三道實打實的門檻: 🔸首先是門檻本身 對中國大陸用戶、以及對隱私高度敏感的人群來說,KYC 直接把一部分人擋在門外。驗證失敗、地區限制、資料要求,本質上都會轉化為用戶流失,他們只會轉向那些更輕量的工具。 🔸其次是資料問題 Anthropic 表示這些資料不會用於訓練模型或行銷,而是交由第三方(如 Persona)處理。但現實是,資料外洩的歷史案例並不少見,即便規則寫得再清楚,用戶的顧慮也很難被徹底消除。 🔸最後是邊界 我理解的,AI 越強大,就越需要可追溯的責任機制,但問題在於,如果所有主流 AI 都走向強實名,用戶還能保留多少“匿名”的空間?那種不被記錄、不被標籤化的思考、實驗和探索,是否會逐漸消失? 繼續尋找其他的AI工具...
0
0
0
0