Sam Altman最新專訪自白:其實我也不太懂AI內部在發生什麼

影片標題:《我們能相信 AI 嗎?Sam Altman 希望如此 | AI 中最有趣的事情》

影片作者:Nick Thompson,《大西洋》CEO

編譯:律動小工,律動 BlockBeats

編者按:本次採訪錄製於 2025 年 4 月,Sam Altman 於舊金山的住所遭莫洛托夫雞尾酒襲擊、數日後又發生街頭槍擊事件後不久,地點在 OpenAI 舊金山辦公室。

整場訪談最值得關注的,不是熱點話題,而是 Altman 在幾個關鍵問題上的立場轉變:

第一,從「AI 安全」到「AI 韌性」。Altman 坦承,三年前他認為只要做好模型對齊、阻止技術落入壞人手中,世界就大致安全。但今天他承認,那套框架已經不夠用。開源前沿模型的存在意味著,前沿實驗室單方面的克制無法阻止生物武器、網路攻擊等風險擴散。他第一次系統性地提出,社會需要的不是 AI 安全(safety),而是 AI 韌性(resilience),這是一種全社會層面、多層防禦的應對方式。

第二,關於可解釋性的真相。Altman 罕見地承認,OpenAI 至今仍沒有一個完善的機制可解釋性框架。思維鏈是目前最有希望的方向,但它脆弱、可能被模型欺騙,且只是「拼圖的一塊」。他用 Anthropic 那個著名的「貓頭鷹實驗」——模型僅透過隨機數字就能傳遞偏好——來說明,這些系統中存在真正的、深層的神祕性。

第三,合成數據可能已經走得比外界想像的更遠。當被問到 OpenAI 是否跑過完全用合成數據訓練的模型時,Altman 的回答是「我不確定該不該說」。他相信,僅靠合成數據就足以訓出超越人類的推理能力。這一點對未來模型訓練範式的含義極其深遠。

第四,對未來經濟結構的悲觀判斷。Altman 同意 Thompson 的判斷,AI 最有可能導向的,是少數公司極度富有、其餘世界陷入劇烈動盪的兩極化未來。他已不再相信全民基本收入是答案,轉而支持某種基於算力或股權的「集體所有制」。同時,他罕見點出中美在 AI 採用速度上的鴻溝,並表示他更擔心的不是中國在研究發表上的領先,而是基礎設施建設速度。

第五,與 Anthropic 的張力也被公開談及。面對 Thompson 問「Anthropic 把公司建立在討厭 OpenAI 之上」的問題,Altman 沒有回避。他承認兩家在如何走向 AGI 這件事上有根本分歧,但仍表示相信「他們最終會做對的事」。

此外,Altman 還談到了 ChatGPT「諂媚(sycophancy)」事件背後那些「人生中第一次有人相信我」的心碎留言、AI 正在悄悄改變全球十億用戶的寫作方式、媒體行業可能走向 agent 微支付的新經濟模型,以及他對年輕人的一個反直覺判斷——他們對 AI 的焦慮,本質上是其他焦慮的投射。

以下為採訪原文,在不改變原意的前提下做了適度刪減與整理。

Thompson: 歡迎來到《AI 中最有趣的那件事》。感謝你在這樣忙碌而緊張的一周中抽出時間。我想從我們之前聊過幾次的話題開始。

三年前你接受 Patrick Collison 採訪時,他問你,有什麼變化能讓你對好結果更有信心、對壞結果少些擔憂?你當時的回答是,如果我們能真正理解神經元層面正在發生什麼。一年前我問過你同樣的問題,半年前我們也聊過。所以我現在再問一次,我們對 AI 工作機制的理解,與 AI 能力增長的速度一樣嗎?

Altman: 我先回答這個問題,然後再回到 Patrick 當年那個問題,因為我對那個問題的答案,已經發生了相當大的變化。

先說我們對 AI 模型在做什麼的理解。我覺得我們仍然沒有一個真正完善的機制可解釋性框架。情況比以前好了一些,但沒有人會說,我完全理解這些神經網路裡發生的每一件事。

思維鏈(chain of thought)的可解釋性,對我們而言一直是個相當有前景的方向。它很脆弱,依賴於一系列東西不在各種潛在的優化壓力下崩塌。但話說回來,我也沒法用 X 光機掃描自己的大腦,去精確理解每一個神經元放電、連接時發生了什麼。如果你讓我解釋為什麼我相信某件事、我怎麼得出某個結論,我可以跟你講。也許那真的是我思考的方式,也許不是,我不知道。人對自己內省也是會失敗的。但無論它是不是真的,你可以看那個推理過程,然後說,好,給定這些步驟,這個結論是合理的。

我們現在能對模型做這件事,確實像是一個挺有希望的進展。但我仍然能想到各種可能出錯的方式,模型欺騙我們、對我們隱瞞一些東西,等等。所以這遠遠不算一個完整的解決方案。

不過即便是我自己使用模型的體驗,我本來是那種堅決不會讓 Codex 完全接管我電腦、運行所謂「YOLO 模式」的人。結果我撐了幾個小時就破功了。

Thompson: 讓 Codex 接管你整台電腦?

Altman: 說實話,我有兩台電腦。

Thompson: 我也有兩台。

Altman: 我能大致看到模型在做什麼,模型也能向我解釋為什麼這樣做沒問題,以及它接下來要做什麼,而我相信它幾乎總會照那個說法去執行。

Thompson: 等一下。思維鏈讓所有人能看到,你輸入一個問題,它會顯示「正在查閱這個、正在做那個」,你可以跟著看下去。但思維鏈要成為一個可解釋性的好方法,它必須是真實的,模型不能在騙你。而我們知道,模型有時候確實會欺騙你,會對自己在想什麼、是怎麼得出答案的撒謊。所以你怎麼去信任思維鏈?

Altman: 你需要在防禦鏈條上加上很多其他環節,來確保模型說的就是真實情況。我們的對齊團隊在這方面下了很多功夫。我前面也說了,這不是完整的解決方案,它只是其中一環。你還需要去驗證模型確實是個忠實的執行者,它說要做什麼,它就真的在做什麼。我們已經發布了不少研究,揭示了模型並未照做的情況。

所以這只是拼圖的一塊。我們不能完全信任模型一定會照思維鏈做事,必須主動去尋找欺騙,以及那些非常古怪的、突現性的不當行為。但思維鏈確實是工具箱裡的重要工具。

Thompson: 真正讓我著迷的一點是,AI 不像汽車。汽車你造出來你就知道它怎麼運作,這裡點火引發爆炸、再傳到這裡、再到那裡,輪子就轉、車就開了。但 AI 更像是你造了一台機器,你不太確定它是怎麼工作的,但你知道它能做什麼、知道它的邊界。所以這種探索它內部機制的努力,是非常迷人的事。

我特別喜歡的一個研究,是 Anthropic 那篇論文,預印本是去年夏天出的,最近正式發表。研究者告訴一個模型「你喜歡貓頭鷹,貓頭鷹是世界上最美好的鳥」,然後讓它生成一堆隨機數字。把這些數字拿去訓練一個新模型,結果新模型也喜歡貓頭鷹。這太瘋狂了。你讓它寫詩,它寫出來的詩是關於貓頭鷹的。可你給它的只有數字。

這意味著這些東西非常神祕。同時也讓我擔心,因為很顯然,你也可以不告訴它喜歡貓頭鷹,而是告訴它去射殺貓頭鷹,可以告訴它各種各樣的事情。請你解釋一下那個研究裡發生了什麼、它意味著什麼、含義是什麼。

**Altman:**我五年級的時候,特別興奮,因為我覺得我搞懂了飛機機翼的原理。我的科學老師跟我解釋,我覺得自己酷毙了。我說,對啊,空氣分子要在機翼上方走得更快,所以那裡壓強更低,機翼就被往上拉。

我看著五年級科學課本裡那張極具說服力的示意圖,感覺好極了。我記得那天我回家就跟我爸媽說,我懂飛機機翼怎麼工作了。然後到了高中物理課,我突然意識到,我一直在腦子裡復述「空氣分子在機翼上方走得更快」這套說辭,可我其實根本不懂飛機機翼是怎麼工作的。說實話,我現在也不算真的懂。

Thompson: 嗯。

Altman: 我能在某種程度上把它解釋得過得去,但你要是一路追問到底,為什麼那些空氣分子在機翼上方走得更快?我沒法給你一個深刻而令人滿意的回答。

我可以告訴你這裡的人對那個貓頭鷹實驗為何會出現那種結果的看法,我可以指出,噢,是因為這個、還有那個,聽上去都挺有說服力。但老實回答是,就跟我其實並不真懂機翼為什麼能飛一樣。

Thompson: 但 Sam,你又不經營波音飛機公司 Boeing,你經營 OpenAI。

Altman: 完全對。我可以告訴你很多別的事,比如我們如何讓一個模型達到某個特定的可靠性和穩健性水平。但這裡面是有物理層面的謎題的。如果我經營 Boeing,我也許能告訴你怎麼造一架飛機,但我沒法把裡面所有的物理都搞得一清二楚。

Thompson: 我們繼續聊那個貓頭鷹實驗。如果模型之間真的能傳遞這種隱藏的、人無法察覺的信息,你可以看著思維鏈上的數字滑過去,毫無察覺地接收了關於貓頭鷹的信息,這件事最終可能會變得危險、麻煩、詭異。

Altman: 所以當我說我現在會給 Patrick Collison 那個問題一個不一樣的答案。

Thompson: 那是三年前的事。

Altman: 對。三年前我對世界的理解大致是這樣,我們必須想清楚怎麼對齊我們的模型,如果能做到對齊、並且能阻止這些模型落入壞人手中,我們就該挺安全。這是我當時主要思考的兩種威脅模型,我們不希望 AI 自己決定要傷害人類,也不希望有人用 AI 去傷害人類。如果能避開這兩件事,剩下的,經濟的未來、意義的未來,我們可以再想辦法,但我們大概率會沒事。

隨著時間推移、隨著我們了解更多,我現在能看到一組完全不同的問題。我們最近開始用「AI 韌性(AI resilience)」來取代「AI 安全(AI safety)」這個說法。

那些顯而易見的情形,比如,僅僅靠前沿實驗室認真對齊模型、不去教別人造生物武器,已經不夠了。因為會出現優秀的開源模型。如果我們不希望出現新的全球大流行病,社會就需要建立一系列防禦層。

Thompson: 等等,這裡我要停一下,這點很重要。意思是說,即使你叫模型不教別人造生物武器、你的模型也確實不會幫任何人造生物武器,這件事的重要性也比你原以為的要小,因為反正會有非常好的開源模型替別人做這件事?

Altman: 這只是眾多例子裡的一個,說明社會對新型威脅需要採取「全社會層面」的應對方式。我們手上確實有了一種新工具來幫我們處理這些問題,但我們面對的局面,跟我們當中很多人原先以為的相當不一樣。對齊模型、構建良好的安全系統當然是必需的,也是了不起的事。但 AI 終將滲透到社會每一個角落。就像我們歷史上面對其他新技術那樣,我們必須去防範一類又一類全新的風險。

Thompson: 聽起來這件事變得更難了。

Altman: 既更難,也更容易。某些方面更難。但同時我們也有了驚人的新工具,能去做一些以前根本想像不到的全新防護。

舉一個正在發生的例子,網路安全。模型在「攻陷計算機系統」這件事上正變得非常擅長。所幸目前擁有最強模型的人,都對「有人用 AI 在計算機系統裡搞破壞」這件事相當警惕。所以現在我們處在這樣一個時間窗口裡,能用的最強模型數量有限,而大家在盡快用它們去加固系統。如果沒有這個優勢,那些會黑入系統的能力很快就會出現在開源模型裡、或落到對手手上,造成大量問題。

我們有了新威脅,同時有了新工具來防禦它。問題是,我們能不能動作夠快。這是一個新例子,說明這項技術本身可以在問題變成大問題之前幫我們解決它。

回到你剛才那個評論,有一類我三年前完全沒想到的、新的全社會規模風險。我那時真的沒想到,我們會真的需要去關注「構建並部署對被其他 agent 感染(實在找不到更好的詞)有韌性的 agent」這件事。

這件事不在我的世界模型裡,也不在我所認識的、那些被認為最迫切問題的人的模型裡。當然之前已經有類似 owl 實驗的結果,以及一些其他研究,清楚地表明你能在這些模型裡誘導出一些奇怪的、我們並不完全理解的行為。但直到 OpenClaw 早期發布、我看到那段時間裡發生的事情之前,我都沒真正思考過,「不當行為從一個 agent 傳染到另一個 agent」這件事會是什麼樣子。

Thompson: 對。其實你剛說的兩個威脅結合起來挺可怕的。OpenAI 的員工派出了 agents,這些 agents 走入世界,某個手裡握著一個非常擅長黑客的模型的人想出怎麼操縱這些 agents,然後這些 agents 回到 OpenAI 總部,突然之間,你們就被入侵了。完全可以想像這種事發生。所以怎麼降低它發生的概率?

Altman: 用我們 OpenAI 整個歷史裡一直在用的方法。OpenAI 歷史上、其實也是整個 AI 領域的一個核心張力,是務實的樂觀主義與追逐權力的末日主義(power-seeking doomerism)之間的對抗。

末日主義是個非常強大的立場。它非常難辯駁,而這個領域裡有相當一部分人,坦白說,是出於巨大的恐懼在行動。這種恐懼並非完全沒有依據。但缺乏數據、缺乏學習的情況下,你能採取多少有效行動是有上限的。

也許 2010 年代中期那批 AI 安全社群的人,已經做了任何人在那個階段、純理論層面所能做的最好的思考,在我們真正了解這些系統會怎麼被構建、它們會怎麼運作、社會會怎麼與它們整合之前。我認為 OpenAI 歷史上最重要的戰略洞察之一,就是決定走「迭代部署(iterative deployment)」這條路。因為社會與技術是一個共同演化的系統。

這不只是「我們沒有數據所以沒法把事情想清楚」的問題,而是,社會會隨著這項技術帶來的演化壓力發生改變,整個生態、景觀、不管你怎麼稱呼它,都會變。所以你必須邊走邊學,必須保持非常緊的反饋循環。

我不知道在「agents 走出去與其他 agents 對話再回到總部」這樣一個世界裡、讓 agents 安全的最佳辦法是什麼。但我不覺得我們會透過坐在家裡使勁想就把這件事解決,我們必須從與現實的接觸中學習。

Thompson: 也就是說,派 agents 出去看會發生什麼?好,那我換個問題。在我這種用戶看來,我用這些產品,用盡各種方法去學習、去幫我的公司在未來活下去,過去三個月,我感覺進展比 ChatGPT 在 2022 年 12 月發布以來的任何時候都要多。這是因為現在正好是個特別有創造力的時刻,還是說我們已經進入了某種遞迴式自我改進的時刻,AI 在幫我們更快地改進 AI?因為如果是後者,那我們要坐的,是一輛既令人興奮也相當顛簸的過山車。

Altman: 我不認為我們已經處於人們傳統意義上所說的那種遞迴式自我改進階段。

Thompson: 我先定義一下。我說的是 AI 能幫你發明下一代 AI、然後機器開始發明機器、機器發明下一代機器,能力會迅速變得極其強大。

Altman: 我不認為我們到了那一步。但我們現在的位置是,AI 讓 OpenAI 的工程師、研究員,其實是所有人,以及其他公司裡的人,工作效率更高了。也許我能讓某個工程師工作效率提高一倍、三倍,甚至十倍。這並不真的等同於 AI 在做自己的研究,但它意味著事情發生得更快了。

不過你說的那種感受,我覺得主要不是這件事,雖然這一點也很重要。這裡面有一種現象,我們大概已經經歷過三次了,最近一次剛剛發生,就是模型跨越了某個智能與實用性的閾值,突然之間,原本不行的事情就行了。

按我自己的體驗,這不是一個非常漸進的過程。GPT-3.5 之前、我們搞清楚怎麼用指令微調把它訓出來之前,聊天機器人除了 demo 都不算有說服力,然後突然之間就有了。後來又有那麼一刻,程式代理從「還不錯的自動補全」突然變成「哇,這真的在替我完成實際任務」。那感覺不漸進,可能就是一個月左右的窗口裡,模型越過了某個閾值。

最近這次,是我們剛發給 Codex 的那個更新,我已經用了大概一周,裡面的電腦使用(computer use)能力非常好。這是一個例子,它不完全是模型智能本身,更多是把好的「水管」搭在了它周圍。這是我「往後一靠、意識到大事正在發生」的瞬間之一。看著一個 AI 使用我的電腦、完成複雜任務,讓我真正意識到,我們所有人有多少時間被浪費在那些我們已經默默接受的瑣碎工作上。

Thompson: 我們能不能具體走一遍,這個 AI 在 Sam Altman 的電腦上到底在做什麼?現在它在做嗎?我們坐在這錄播客的當下。

Altman: 沒有。我電腦現在是關著的。我們還沒找到一種、至少我自己還沒有一種好的辦法,讓那種事情能發生。我們需要某種方式讓它持續運作。我現在還不知道它會長成什麼樣。也許我們都得讓筆記本合上時仍開機、永遠連著電源,也許我們都得在某處搭一個遠端伺服器。總會有某種方案出現的。

Thompson: 嗯。

Altman: 我沒有像有些人那樣嚴重的焦慮,他們半夜醒來去啟動新的 Codex 任務,因為覺得「不這樣就是在浪費時間」。但我能理解那種感覺,我懂那種感覺是什麼樣的。

Thompson: 是啊。我今天早上一醒來,就想去看一眼我的 agents 都發現了什麼、給它們點新指令、讓它們生成一份報告,然後再讓它們繼續跑。

Altman: 人們談論這件事的方式,有時聽起來像是某種不健康的、上癮式的行為。

Thompson: 你能說說它在你電腦上具體做什麼嗎?

Altman: 現在我用得最爽的,是讓它替我處理 Slack。不只是 Slack,我不知道你怎麼樣,我自己有這種爛攤子,我整天在 Slack、iMessage、WhatsApp、Signal、郵件之間跳來跳去,感覺一直在到處複製貼上、做大量的雜活。試著找文件、等某件很基礎的小事處理完、做某些非常機械的小事,我都沒意識到自己每天花了多少時間在這些上面,直到我找到一種方式把自己從大部分這些事裡解放出來。

Thompson: 這是個很好的過渡,可以聊聊關於 AI 與經濟,目前一件最有意思的事。這些工具非常厲害,當然有缺陷、有幻覺、有各種各樣的問題,但在我看來真的非常厲害。可我去參加一個商業會議,跟在場所有人說,請舉手,你們當中誰真的認為 AI 讓你們公司的生產力提高了 1% 以上?結果幾乎沒人舉手。顯然在 AI 實驗室你們已經徹底改變了工作方式。為什麼 AI 的能力,與它在美國企業實際帶來的生產力提升之間,會有這麼大的鴻溝?

Altman: 就在我們這次對話之前,我剛跟一家大公司的 CEO 通完電話,他正在考慮部署我們的技術。我們給了他們其中一款新模型的 alpha 進入權限,他們的工程師都說這是有史以來最酷的東西。這家公司不在科技泡沫裡,是一家非常大的工業公司。他們計畫在第四季度進行一次安全評估。

Thompson: 嗯。

Altman: 然後在第一季度和第二季度提出實施方案,希望能在 2027 年下半年上線。他們的 CISO(首席資訊安全官)告訴他們,他們也許根本做不到這件事,因為可能根本不存在一種安全的方式,讓 agents 在他們的網路裡跑。這也許是事實。但這也意味著他們在任何有意義的時間尺度上,都不會真的做出什麼動作。

Thompson: 你覺得這個例子能代表當下普遍發生的事嗎?如果企業不那麼保守、不那麼擔心被駭客攻擊、不那麼害怕變革。

Altman: 這是一個相對極端的例子。但整體來說,人們改變習慣和工作流程就是需要很長時間。企業銷售週期本來就長,特別是在安全模型發生很大變化的情況下。即使是 ChatGPT,剛出來時,公司忙著到處禁用它,花了很久才讓企業接受「員工可以把一些隨機資訊貼進 ChatGPT」。我們現在在討論的,已經遠遠超出當年那一步了。

我想這件事在很多場景下會偏慢。當然科技公司會動作非常快。我擔心的是,如果太慢,那麼會發生這樣的事,今天那些不採用 AI 的公司,將主要不得不與一群「1 到 10 人加上大量 AI」的小公司競爭,這對經濟的破壞會非常劇烈。我其實更願意看到現有公司採用 AI 的速度足夠快,讓工作發生一種漸進的轉變。

Thompson: 對。這是我們經濟面臨的其中一個最複雜的次序問題。如果 AI 來得太快,是個災難,因為一切都被掀翻。

Altman: 至少短期是災難。

Thompson: 而如果它在經濟的某一部分非常緩慢、另一部分极速到來,也是災難,因為你會得到大規模的財富集中以及破壞。在我看來我們現在似乎正走向後者,世界上會有非常少的一部分、非常少的一些公司變得極其富有、表現極佳,而世界其他部分則不那麼好。

Altman: 我不知道未來會怎樣,但在我看來,目前最有可能的,就是這種結果。我也同意,這是個相當棘手的局面。

Thompson: 作為 OpenAI 的 CEO,你提出過一系列政策主張,談過美國應該如何調整稅收政策,多年來也談過全民基本收入。但你作為一個經營這家公司的,而不是一個參與美國民主治理的政策制定者,你能做哪些事情,去降低出現「財富與權力大規模集中、最終對民主非常不利」這種結果的概率?

Altman: 首先,我已經不像以前那樣相信「全民基本收入」這個概念了。我現在更感興趣的,是一些「集體所有制」的方式,可以是算力、股權、或者別的形式。

任何一種我能真正為之興奮的未來版本,都意味着每個人都必須分享上行收益。我覺得僅僅一筆固定的現金支付,雖然有用、在某些方面也許是好主意,並不足以應對下一階段我們真正需要的東西。當勞動與資本的天平發生傾斜時,我們需要的是某種「共享上行的集體性對齊」。

至於我作為公司經營者的部分,這些回答聽起來都會有點自利,我認為我們應該建大量算力。我認為我們應該努力讓智能盡可能廉價、豐沛、廣泛可及。如果它是稀缺的、難以使用的、整合得不好的,那麼現存的富人就會把價格抬高,導致社會進一步分化。

而且這不只是我們提供多少算力的問題,儘管那大概是最重要的,還有我們讓這些工具變得多麼易用。比如,現在用 Codex 入門,比三六個月前要容易得多。當它還只是個命令行工具、安裝起來很複雜的時候,能用它的人非常少。現在你裝一個 app 就行了,但對一個真正非技術背景的人來說,這件事還遠遠談不上讓他們興奮。所以這部分還有很多工作要做。

我們還相信的一件事是,不只是告訴人們「這件事正在發生」,而是把它展示給他們看,讓他們可以自己形成判斷、給出反饋。這些是幾個比較重要的方向。

Thompson: 聽起來挺合理。如果每個人都對 AI 的發展感到樂觀,那當然更好。但美國正在發生的事是,人們正變得越來越不喜歡 AI。最讓我震驚的是年輕人,你會想他們才是 AI 原住民,但最近 Pew 的研究、以及斯坦福 HAI 報告,都挺讓人沮喪的。你覺得這個趨勢會一直延續下去嗎?什麼時候會反轉?這種增長中的不信任與厭惡,什麼時候會扭轉?

Altman: 我們談論 AI 的方式,你和我剛剛就是這樣,更多是在談一種技術奇觀,談我們做的這些酷炫的東西。這沒什麼不對。但我覺得,人們真正想要的,是繁榮、是能動性,是過有趣生活、獲得滿足感、並產生影響的能力。而我不覺得整個世界一直是用這種方式在談 AI。我覺得我們應該多做這件事。整個行業,包括 OpenAI 在內,在很多地方都做錯了。

我記得有一位 AI 科學家曾經對我說,人們真該停止抱怨。也許有些工作會消失,但人們將得到癌症的治愈方法,他們應該為此感到高興。這個說法根本行不通。

Thompson: 我最喜歡的、關於 AI 早期話語的一個說法,叫「反烏托邦式行銷(dystopia marketing)」,大型實驗室在自家產品上滔滔不絕地談論它將帶來的所有危險。

Altman: 我覺得是有一些人是出於「想要權力」之類的原因在那麼做。但我認為大多數人是真的有所擔憂、想誠實地談這件事。在某些方面這種談法適得其反,但我覺得初衷大多是好的。

Thompson: 我們能聊聊它在對我們做什麼嗎,它在如何改變我們大腦的工作方式?另一篇讓我印象很深的研究,是 DeepMind 發的,或者說 Google 發的,關於寫作的同質化。那項研究是關於人們使用 AI 時怎麼寫作。他們拿來舊文章,讓 AI 編輯、讓 AI 輔助寫作。結果是,人們用 AI 越多,他們越覺得自己的作品有創意,但作品越向同一種形式收斂。詭異的是,那並不是某種人類的形式,也不是大家都開始模仿某個真實存在的人,而是大家開始用一種他們以前從未用過的方式寫作。所有這些自以為在變得更有創造力的人,其實變得越來越同質化。

Altman: 看到這件事發生讓我相當震驚。一開始我注意到這個趨勢,比如媒體上的寫作、Reddit 評論的寫作,我以為那不過是 AI 在替他們寫。我沒法相信在這麼短的時間裡,所有人都已經採用 ChatGPT 那些「小口癖」。我當時覺得,我能一眼分辨出,這一定是有人把 ChatGPT 接

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 回覆
  • 轉發
  • 分享
回覆
請輸入回覆內容
請輸入回覆內容
暫無回覆