*頁面數據最近更新時間:2026-04-29 04:49 (UTC+8)
至 2026-04-29 04:49,Ralph Lauren Corp (RL) 股票報價為 $0,總市值為 $7019.27億,本益比為 18.17,股息率為 0.99%。 當日股票價格在 $0 至 $0 之間波動,當前價格較日內低點高 0.00%,較日內高點低 0.00%,成交量為 30.17萬。 過去 52 週,RL 股票價格區間為 $0 至 $0,當前價格距 52 週高點 0.00%。
RL 關鍵數據
RL 簡介
瞭解更多 Ralph Lauren Corp (RL) 資訊
學院文章
什麼是 AI Arena?
全面解析 AI Arena,這款融合 AI 的區塊鏈遊戲,探討其核心玩法、基礎設施、原生代幣 $NRN 的功能,以及潛在的機遇與風險。
2025-01-17
ARC Agents:重新定義人工智慧遊戲玩法
本文討論了ARC項目如何利用人工智能來解決獨立和Web3遊戲中的玩家流動性這一關鍵問題,同時探討了ARC的發展以及其商業模式的潛力
2024-12-10
一文讀懂FOCAI
Focai是基於focEliza框架構建的第一個“永生”的AI代理,其目標是實現完全鏈上的智能體(AI Agent),使其可以在區塊鏈上獨立運行、存儲數據並執行決策,而不依賴傳統中心化系統。本文將深入探討focEliza的核心技術、開發者背景、FOCAI市場表現及其未來發展方向。
2025-01-20
Ralph Lauren Corp (RL) FAQ
Ralph Lauren Corp (RL) 今天的股價是多少?
Ralph Lauren Corp (RL) 的 52 週最高價和最低價是多少?
Ralph Lauren Corp (RL) 的本益比 (P/E) 是多少?說明了什麽?
Ralph Lauren Corp (RL) 的市值是多少?
Ralph Lauren Corp (RL) 最近一季的每股收益 (EPS) 是多少?
Ralph Lauren Corp (RL) 現在該買入還是賣出?
哪些因素會影響 Ralph Lauren Corp (RL) 的股價?
如何購買 Ralph Lauren Corp (RL) 股票?
風險提示
免責聲明
Ralph Lauren Corp (RL) 今日新聞
Perplexity 揭露 Web 搜尋代理後訓練方法;基於 Qwen3.5 的模型在準確率與成本上超越 GPT-5.4
封鎖新聞訊息,4 月 23 日 — Perplexity 的研究團隊發布了一篇技術文章,詳述其用於 Web 搜尋代理的後訓練方法。該方法使用兩個開源的 Qwen3.5 模型 (Qwen3.5-122B-A10B 與 Qwen3.5-397B-A17B),並採用兩階段流程:先進行監督式微調 (SFT) 以建立遵循指令與語言一致性,接著透過線上強化學習 (RL) 以最佳化搜尋準確性與工具使用效率。 RL 階段使用 GRPO 演算法,且有兩種資料來源:一個專有的多跳可驗證問答資料集,係由內部種子查詢構建而成,要求推理 2–4 個跳步,並透過多解算器驗證;以及基於規則量表的通用對話資料,將部署需求轉換為可客觀檢查的原子條件,以防止 SFT 行為退化。 獎勵設計採用閘控聚合——只有在達到基準正確性時((question-answer match))或所有規則量表準則均滿足時,偏好分數才會被計入,以避免高偏好訊號掩蓋事實錯誤。效率懲罰則使用同組錨定,對超出同組中正確答案基準的工具呼叫與生成長度套用平滑懲罰。 評估顯示 Qwen3.5-397B-SFT-RL 在各類搜尋基準上達到業界一流的表現。在 FRAMES 上,單次工具呼叫可達 57.3% 準確率,較 GPT-5.4 高出 5.7 個百分點,並較 Claude Sonnet 4.6 高出 4.7 個百分點。在中等預算 (four tool calls) 下,它以每次查詢 $0.02 達到 73.9% 準確率;相比之下,GPT-5.4 為 67.8%(每次查詢 $0.085),Sonnet 4.6 為 62.4%(每次查詢 $0.153)。成本數據基於各供應商的公開 API 定價,且不包含快取最佳化。
2026-03-21 00:19Cursor 官方確認 Kimi K2.5 為基座,月之暗面:屬授權商業合作
Gate News 消息,3 月 21 日,据 1M AI News 监测,月之暗面官方帳號 @Kimi_Moonshot 發文祝賀 Cursor 發布 Composer 2,並說明 Cursor 透過 Fireworks AI 托管的 RL 與推理平台訪問 Kimi K2.5,屬於授權商業合作。Cursor 聯合創始人 Aman Sanger 和開發者教育副總裁 Lee Robinson 隨後公開確認基座來源,並披露技術細節。Sanger 表示團隊對多個基座進行困惑度評測,Kimi K2.5「證明是最強的」,隨後疊加繼續預訓練和 4 倍規模的高算力強化學習,並透過 Fireworks AI 的推理與 RL 取樣器部署。Robinson 補充,最終模型中來自基座的算力約佔 1/4,其餘 3/4 來自 Cursor 自身訓練。兩位創始人均承認發布博客時未提及 Kimi 基座「是一個失誤」,表示下一個模型發布時會在第一時間註明基座來源。此前,Elon Musk 在相關討論帖下回覆「Yeah, it's Kimi 2.5」,進一步放大話題熱度。
2026-03-20 09:47Cursor Composer 2 被指使用 Kimi K2.5 模型,月之暗面指控其未遵守許可證
Gate News 消息,3 月 20 日,据 1M AI News 監測,開發者 @fynnso 在調試 Cursor API 請求時發現,Composer 2 的實際模型 ID 為 kimi-k2p5-rl-0317-s515-fast,字面即「Kimi K2.5 + RL」。月之暗面(Moonshot AI)預訓練負責人杜羽倫隨即發推,稱團隊測試 Composer 2 的 tokenizer 後發現「與我們的 Kimi tokenizer 完全一致」,「幾乎可以確認這是我們的模型被進一步後訓練的結果」,並直接 @ Cursor 聯合創始人 Michael Truell,質問「為什麼不尊重我們的許可證,也沒有支付任何費用」。Cursor 於 3 月 19 日發布 Composer 2 時稱,性能提升來自「首次對基座模型進行繼續預訓練,再結合強化學習」,但全程未提及 Kimi K2.5。Kimi K2.5 採用修改版 MIT 協議,明文規定:月活超 1 億或月營收超 2000 萬美元的商業產品,必須在用戶界面顯著標註「Kimi K2.5」。以 Cursor 293 億美元估值及付費用戶規模,月營收門檻幾乎必然觸發。截至發稿,Cursor 未公開回應。
2026-02-12 14:21Gradient 推出分布式強化學習框架 Echo-2,並計劃推出 RLaaS 平台 Logits
Foresight News 消息,分散式 AI 實驗室 Gradient 發布 Echo-2 分散式強化學習框架,旨在打破 AI 研究訓練效率壁壘。該框架通過在架構層實現 Learner 與 Actor 的解耦,旨在降低大模型的後訓練成本。據官方數據顯示,該框架可將 30B 模型的後訓練成本從 4500 美元降低至 425 美元。 Echo-2 利用存算分離技術進行異步訓練(Async RL),支持將採樣算力卸載至不穩定顯卡實例與基於 Parallax 的異構顯卡。該框架配合有界陳舊性、實例容錯調度以及自研 Lattica 通訊協議等技術,在維持模型精度的前提下提升訓練效率。 此外,Gradient 計劃推出 RLaaS(強化學習即服務)平台 Logits,目前已面向學生與研究人員開放預約。
2026-01-02 09:15Mechanism Capital合夥人:2026年實體AI數據規模將擴大100倍
PANews 1月2日消息,Mechanism Capital合伙人Andrew Kang在X平台发文表示,2025年机器人领域解决了长期存在的模型架构与训练挑战,并在数据采集技术、数据质量理解和数据配方方面取得重大进展,使得人工智能公司有信心最终开始投资大规模数据收集,像Figure、Dyna和PI这样的公司利用强化学习(RL)的创新技术,在各种实际应用场景中实现了99%以上的成功率。 此外,记忆技术的进步打破了“记忆墙”,NVIDIA的ReMEmber利用基于记忆的导航,Titans与MIRAS实现了测试时记忆,更优秀的虚拟定位模型(VLM)意味着虚拟定位阵列(VLA)拥有更佳的空间理解能力,以及能够大幅提升吞吐量的数据标注和处理流程。2025年市场初步领略到数据规模带来的零样本能力映射、视觉力度敏感性和通用物理推理,2026年实体AI数据规模将扩大100倍。


















































































































































































































































































































































































