我注意到,在過去一年中,關於我們已經達到人工通用智能(AGI)的聲稱越來越大聲。當然,《自然》雜誌的最新文章更是火上加油。但這裡有一個許多人忽略的根本問題。



重點在於:人們混淆了兩個完全不同的事物。一方面,我們有在測試中展現出令人印象深刻結果、能處理各種任務的語言模型。另一方面,這並不意味著我們已經創造出了真正的通用智能。這正是將越來越複雜的模式識別與智能本身混為一談。

如果看看歷史上的AGI定義,總是強調不同的特質:在不同情境下的可靠性、面對新奇事物時的泛化能力、靈活性。並非僅僅在人工環境中取得高分。

有趣的是,最近的研究顯示,能出色解決測試問題的系統,往往在條件稍作改變時就會崩潰。例如,醫療模型即使缺少關鍵數據,也能給出正確答案,但在分布稍有偏移時就變得不穩定。這不是智能,而是針對特定場景的訓練。

在經濟層面,情況更為明顯。即使是最先進的系統,也只能可靠地完成少部分實際工作任務,儘管在測試條件下表現優異。最新數據顯示,大多數公司目前尚未看到引入AI的顯著回報。這看起來並不像是通用智能。

還有一個經常被忽略的點。當語言模型和人類給出相同答案時,並不代表它們的推理方式相同。我見過一些例子,模型在不確定的情況下自信地得出結論,而專家則因資訊不足而保持觀望。表面上的一致掩蓋了推理過程中的深層差異。

目前的系統仍然很脆弱。它們依賴於問題的表述,缺乏穩定的目標,無法在長期內進行可靠的推理。甚至有關模型解決開放數學問題的故事,也多是現有方法的組合與穷舉,而非創造新策略。

問題不僅僅在於術語。當這些系統開始應用於科學和政府決策的實際流程中,對它們能力的高估可能導致在信任與責任分配上的嚴重錯誤。因此,將先進的統計逼近與通用智能混為一談,不僅是概念上的錯誤,也存在實際風險。

我們現有的模型是強大的工具,沒錯。但它們仍是工具,而非具有真正彈性能力的代理。這個區別非常重要。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言