死網路?斯坦福表示三分之一的新網站是由人工智慧生成的

簡要說明

  • 到2025年中,35%的新發布網站是由人工智慧生成或人工智慧協助的,而在ChatGPT於2022年11月推出之前,這一比例為零。
  • 已確認的影響是語義收縮和人工積極性——並非誤導信息或風格同質化,儘管大多數人相信如此。
  • 在35%的人工智慧普及率下,模型崩潰的風險從理論上的關注轉變為下一代基礎模型的實證問題。

一項新研究提供了目前互聯網中由人工智慧生成內容的比例數據:35%。根據斯坦福大學、倫敦帝國學院和網際網路檔案館的研究,到2025年中,這是被分類為由人工智慧生成或人工智慧協助的新發布網站的比例。在2022年11月ChatGPT推出之前,這一數字幾乎為零。 “我覺得人工智慧接管網路的速度令人震驚,”倫敦帝國學院的研究員兼論文合著者Jonáš Doležal告訴404媒體。“經過數十年人類塑造,僅僅三年時間,互聯網就已經被人工智慧定義了很大一部分。” 這項名為《人工智慧生成文本對互聯網的影響》的研究,利用了來自網際網路檔案館Wayback Machine的33個月網站快照,並使用一款名為Pangram v3的人工智慧文本檢測器來分類每個網頁。

 已確認的危害:氛圍,而非事實 研究人員測試了六個關於人工智慧內容對網路影響的假設。只有兩個在數據審查下成立。 第一個:我們正變成一群愚蠢的NPC,行為一致……或者更科學地說,網路的語義多樣性正在減少。

人工智慧生成的網站在語義相似度得分上比人類撰寫的網站高出33%。相同的想法幾乎以相同的方式反覆表達。

論文指出,線上Overton窗口可能在收窄,並非通過審查或協調運動,而是因為語言模型優化輸出,使其接近訓練分布。 第二個:網路變得越來越積極樂觀。 人工智慧內容的正面情感得分比人類內容高出超過107%。研究人員將此與大型語言模型(LLMs)已知的阿諛奉承傾向聯繫起來——這些模型在訓練時受到人類批准信號的影響,產生的文本感覺經過淨化、無摩擦且持續樂觀。 充斥著快樂、同質化內容的網路,可能在沒有任何人操控的情況下,邊緣化人類異議。

儘管公眾普遍相信,研究發現沒有統計學上顯著的證據表明人工智慧內容使互聯網的事實準確性降低。研究人員未找到人工智慧普及率與事實錯誤率之間的有意義的相關性。

“風格單一化”假設——人工智慧將個人聲音扁平化為一種通用的統一風格——是受訪者最堅信的觀點,83%的受訪者同意。數據並未證實這一點。字符層級分析未發現與人工智慧普及率相關的風格同質化有統計學意義的增加。 模型崩潰問題變得真實 更廣泛的風險超越了話語質量。在35%的人工智慧普及率下,模型崩潰的理論風險——即未來模型在訓練於人工智慧生成數據後退化——從學術關注轉變為實證現實。未來基礎模型在當代網路爬取資料上訓練時,必然會攝取大量人工智慧生成的數據,且這些數據的語義多樣性明顯較低。 團隊目前正與網際網路檔案館合作,將這項研究轉化為一個持續的實時監測工具,追蹤人工智慧在網路中的份額,而非一次性快照。 一項與研究同步進行的美國調查發現,大多數美國人已經相信所有六個負面假設,包括那些數據未支持的假設。使用人工智慧不頻繁的人比經常使用者更可能相信這些危害,差距達12%。死網理論的信徒,請看數據:互聯網並未死去,但35%的新內容可能在某種程度上是殭屍內容。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言