✍️ Gate 廣場「創作者認證激勵計劃」進行中!
我們歡迎優質創作者積極創作,申請認證
贏取豪華代幣獎池、Gate 精美周邊、流量曝光等超過 $10,000+ 豐厚獎勵!
立即報名 👉 https://www.gate.com/questionnaire/7159
📕 認證申請步驟:
1️⃣ App 首頁底部進入【廣場】 → 點擊右上角頭像進入個人主頁
2️⃣ 點擊頭像右下角【申請認證】進入認證頁面,等待審核
讓優質內容被更多人看到,一起共建創作者社區!
活動詳情:https://www.gate.com/announcements/article/47889
我注意到,在過去一年中,關於我們已經達到人工通用智能(AGI)的聲稱越來越大聲。當然,《自然》雜誌的最新文章更是火上加油。但這裡有一個許多人忽略的根本問題。
重點在於:人們混淆了兩個完全不同的事物。一方面,我們有在測試中展現出令人印象深刻結果、能處理各種任務的語言模型。另一方面,這並不意味著我們已經創造出了真正的通用智能。這正是將越來越複雜的模式識別與智能本身混為一談。
如果看看歷史上的AGI定義,總是強調不同的特質:在不同情境下的可靠性、面對新奇事物時的泛化能力、靈活性。並非僅僅在人工環境中取得高分。
有趣的是,最近的研究顯示,能出色解決測試問題的系統,往往在條件稍作改變時就會崩潰。例如,醫療模型即使缺少關鍵數據,也能給出正確答案,但在分布稍有偏移時就變得不穩定。這不是智能,而是針對特定場景的訓練。
在經濟層面,情況更為明顯。即使是最先進的系統,也只能可靠地完成少部分實際工作任務,儘管在測試條件下表現優異。最新數據顯示,大多數公司目前尚未看到引入AI的顯著回報。這看起來並不像是通用智能。
還有一個經常被忽略的點。當語言模型和人類給出相同答案時,並不代表它們的推理方式相同。我見過一些例子,模型在不確定的情況下自信地得出結論,而專家則因資訊不足而保持觀望。表面上的一致掩蓋了推理過程中的深層差異。
目前的系統仍然很脆弱。它們依賴於問題的表述,缺乏穩定的目標,無法在長期內進行可靠的推理。甚至有關模型解決開放數學問題的故事,也多是現有方法的組合與穷舉,而非創造新策略。
問題不僅僅在於術語。當這些系統開始應用於科學和政府決策的實際流程中,對它們能力的高估可能導致在信任與責任分配上的嚴重錯誤。因此,將先進的統計逼近與通用智能混為一談,不僅是概念上的錯誤,也存在實際風險。
我們現有的模型是強大的工具,沒錯。但它們仍是工具,而非具有真正彈性能力的代理。這個區別非常重要。