引言:一個令人不安的共鳴

你是否曾有過這樣的瞬間:在處理一項任務時,下意識地就想打開 ChatGPT,然後猛然驚覺——自己的大腦似乎正在「生鏽」?

如果你有這種感覺,你並不孤單。根據麻省理工學院(MIT)媒體實驗室 2025 年發布的研究,長期使用 ChatGPT 的受試者在神經活動、語言表現和行為層面上,都呈現出明顯的下降趨勢。研究人員將這種現象稱為「認知負債」(Cognitive Debt)——當我們持續依賴 AI 來完成思考任務時,我們的大腦正在悄悄地「欠債」。

然而,這個故事還有更令人震驚的另一半:當我們將思考的重擔外包給 AI 時,AI 本身也正在經歷一種被稱為「模型崩潰」(Model Collapse)的退化過程。

這不是科幻小說,而是一場正在發生的雙重危機。想深入了解 AI 可能帶來的風險,可以參考我們對 AI 潛在危險的完整分析


什麼是模型崩潰?AI 正在「吃掉自己」

營火正在熄滅

想像一個營火晚會。火焰溫暖而明亮,但如果我們不再添加新的木柴,而是不斷地將燃燒後的餘燼重新丟回火堆裡,那麼火焰最終只會熄滅。

這正是 AI 模型目前面臨的處境。

「模型崩潰」——在學術界也被稱為「模型自噬失調」(Model Autophagy Disorder, MAD)或更戲謔的「哈布斯堡 AI」——是指當 AI 模型不再學習新鮮的、由人類創造的數據,而是開始學習由它自己或其他 AI 生成的內容時,其性能會開始下降。

根據發表於《Nature》期刊的研究,當生成式 AI 無差別地在真實內容與 AI 生成內容上進行訓練時,會導致模型生成多樣化、高品質輸出的能力崩潰。

退化的兩個階段

研究人員 Shumailov 等人識別出模型崩潰的兩個關鍵階段:

早期模型崩潰:模型開始丟失分布尾端的資訊——這主要影響少數群體的數據。這個階段特別陰險,因為整體表現可能看似改善,但模型實際上正在失去對邊緣案例的處理能力。

晚期模型崩潰:模型喪失了大部分的表現能力,開始混淆概念,失去大部分的變異性。到了這個階段,模型輸出的內容會變得越來越簡化、同質化,最終變得幾乎毫無用處。

這就像不斷影印同一份文件——每一次複製都會失去一點清晰度,直到最終變得完全無法辨識。IBM 的技術專家對此現象有詳細的解說


認知負債:你的大腦正在付出代價

MIT 研究的驚人發現

2025 年,MIT 媒體實驗室的研究員 Nataliya Kosmyna 領導了一項開創性的研究。研究團隊將 54 名受試者分為三組:一組使用 ChatGPT、一組使用搜尋引擎、另一組則完全依靠自己的大腦來撰寫論文。

研究人員使用腦電圖(EEG)監測受試者在 32 個腦區的活動,根據 TIME 雜誌的報導,結果令人震驚:

  • ChatGPT 組的大腦參與度最低,在神經、語言和行為層面上「持續表現不佳」
  • 隨著時間推移,ChatGPT 使用者變得越來越懶惰,從最初詢問結構性問題,到研究結束時直接複製貼上整篇文章
  • 純腦力組不僅報告了更高的滿意度,還展現出更強的大腦連結性
  • 當 ChatGPT 組被要求在沒有 AI 輔助的情況下寫作時,他們的表現明顯落後,產出的內容被評為「偏頗且膚淺」

這項研究的發現與我們在 MIT AI 報告分析中討論的趨勢不謀而合。研究者將這種現象稱為「認知負債」——當你長期依賴 AI 時,你的大腦會積累一種「債務」,導致獨立思考時的長期學習表現下降。

批判性思維的萎縮

批判性思維就像一塊肌肉:越用越強壯,不用則會萎縮。

AI 透過提供即時答案,完全繞過了我們與問題搏鬥、深入思考的「鍛鍊」過程。當我們開始用 ChatGPT 來查詢如何重新加熱雞塊這種瑣碎小事時,我們正在忘記如何獨立解決哪怕是最簡單的問題。

更令人擔憂的是《Frontiers in Psychology》期刊的研究發現:自尊心較低的用戶更容易對 AI 產生問題性的依賴。這種依賴會形成一個惡性循環:使用者因為對自己的表達缺乏信心而依賴 AI,而這種依賴又進一步削弱了他們的自信心。

了解不同 ChatGPT 模型的差異,可以幫助你更聰明地選擇和使用這些工具。


惡性循環:人類與 AI 正在「集體變笨」

這裡是最令人不安的部分:人類的認知退化與 AI 的模型崩潰並非兩個獨立事件,而是一個相互強化的惡性循環。

循環是這樣運作的:

  1. 人類越來越依賴 AI 來完成日常的思考與創作——從撰寫工作報告,到寫母親節卡片,甚至是記錄私人日記
  2. 人類產出的內容品質下降——因為大腦不再經歷深度思考的過程,我們創造的內容變得更加簡化、缺乏個人特色
  3. 這些低品質的內容被用來訓練下一代 AI——網路上充斥著由 AI 生成或 AI 輔助創作的內容,而這些正是 AI 模型訓練數據的主要來源
  4. AI 模型開始退化——模型崩潰開始發生,AI 的輸出變得更加同質化和簡化
  5. 人類接收到更低品質的 AI 輸出——這進一步強化了我們對淺薄思考的習慣
  6. 循環重複

這是一個人類與 AI 共同參與的、相互加速的「集體變笨」循環。我們正在用自己簡化的思想去餵養一個正在簡化世界的 AI,而這個 AI 又會產出更簡化的內容來影響我們的思考。

隨著 GPT-5 Claude Opus 4.5 等新一代模型的發展,這個問題是否會被解決,仍然是一個未知數。


為什麼科技巨頭不解決這個問題?

令人沮喪的是,模型崩潰的技術解決方案其實是已知的:擴大模型參數、使用更多新鮮的人類數據、實施數據溯源機制等。那麼,為什麼這個問題沒有被積極解決?

三個核心商業原因

1. 成本考量

AI 生成的數據基本上是免費的,而獲取高品質、真實世界的人類數據則極其昂貴。對企業來說,用免費的「餘燼」來維持營火,遠比花大錢去尋找「新木柴」來得划算。這也是為什麼有效管理 GPU 資源對企業來說如此重要。

2. 戰略優勢

在激烈的市場競爭中,高品質的數據集就是秘密武器。根據 NYU 數據科學中心的研究指出,AI 模型本身並非一個可防禦的技術「護城河」,公司維持競爭優勢的主要方式就是緊緊守護其獨特的人類數據集。沒有公司願意輕易分享自己的解決方案或數據。

3.「夠用就好」的心態

只要當前的服務對大多數企業用戶來說「夠用」,能處理日常任務,就沒有足夠的動力去投入巨資解決這個看似遙遠的「明天的問題」。

一位業界觀察者的深刻評論揭示了這種態度:

「我在商展上採訪過數不清使用現成大型語言模型的公司,當我問他們如何保證在模型衰退的情況下服務品質時,他們只是聳聳肩說:『我們沒辦法。』」


解決之道:重建人機協作的健康關係

面對這個雙重危機,我們不應該完全拋棄 AI,而是需要更有意識、更謹慎地使用它。

給個人的建議

1. 設立「無 AI」思考時間

每天保留一段時間進行不依賴 AI 的思考和創作。這可以是早晨的日記、午後的頭腦風暴,或是睡前的閱讀。讓你的大腦有機會「鍛鍊」。

2. 先思考,後驗證

在使用 AI 之前,先嘗試自己形成初步的想法或答案。然後再用 AI 來補充、驗證或精煉。這樣既能保持思考的肌肉活躍,又能享受 AI 的效率。

3. 保持你獨特的聲音

當你不斷使用 AI 來讓文字「聽起來更好」時,你可能會開始對自己真正想說的話感到不安。記住:你原始的、不完美的想法,才是讓你獨一無二的特質。

給企業的建議

1. 投資高品質數據

如同 Gretel 等研究者所強調的,精心策劃的合成數據生成,而非「無差別」使用,可以防止模型崩潰。這需要深入理解知識缺口,以確保數據的品質和多樣性。

2. 建立數據溯源機制

MIT 和其他大學的研究人員組成的「數據溯源倡議」已經審計了超過 4,000 個數據集。企業應該積極參與這類協作,確保訓練數據的來源和品質。了解 MLOps 的最佳實踐可以幫助企業建立更健全的 AI 管理流程。

3. 選擇負責任的 AI 夥伴

在選擇 AI 訓練平台或服務時,了解供應商對數據品質和模型維護的承諾至關重要。這不僅關乎當下的效能,更關乎長期的可持續性。歡迎了解我們的 AI Stack 企業解決方案如何幫助企業建立可持續的 AI 基礎設施。


結論:誰來為智慧的火焰添柴?

我們正處於一個詭異的矛盾之中:我們將越來越多的心智活動外包給一個強大的工具,但這個工具本身卻因為我們的過度依賴而正在「退化」。

這不僅僅是技術問題,更是一個關於人類未來的哲學問題。當我們日益將自己的心智與 AI 融合時,究竟該由誰來負責,確保那真正智慧的火焰——無論是人類的還是機器的——永不熄滅?

答案可能就在於:我們需要成為更聰明的 AI 使用者,而不是更依賴的 AI 消費者。

在這個人機共生的時代,保持獨立思考的能力,不僅是對我們自己負責,更是對我們所依賴的 AI 系統負責。因為最終,AI 的品質取決於我們餵養它的內容品質,而我們的思考品質則取決於我們如何選擇使用這些工具。

智慧的火焰需要新的燃料。問題是:你願意成為那個添柴的人嗎?


延伸閱讀