南加州大學 Dornsife 文理學院的電腦科學與心理學研究團隊指出,大型語言模型正在標準化人類的表達方式,並潛移默化地影響我們的思考模式。研究團隊在 Trends in Cognitive Sciences 期刊發表評論文章,警告若此一同質化趨勢持續發展,恐將削減人類的集體智慧與適應能力。研究人員呼籲 AI 開發者應在 LLM 訓練資料中加入更多真實世界的多樣性,不僅為了保護人類的認知多樣性,也能改善聊天機器人的推理能力。

個體性被稀釋

研究團隊強調,認知多樣性能夠增強群體與社會的創造力與問題解決能力。然而,隨著全球數十億人越來越依賴少數幾個 AI 聊天機器人處理各種任務,全球認知多樣性正在縮減。當人們使用聊天機器協助潤飾文字時,文字往往失去其風格上的獨特性,人們也對自己創作的內容感到較低的創作歸屬感。

論文第一作者、USC Viterbi 工程學院博士研究生 Zhivar Sourati 表示:「擔憂的點不僅在於 LLM 如何塑造人們的寫作或說話方式,而在於它們會微妙地重新定義什麼是可信的言論、正確的觀點,甚至是好的推理方式。」

研究指出,多項研究顯示 LLM 的輸出變化性低於人類撰寫的內容,且 LLM 輸出往往反映西方、受教育、工業化、富裕與民主社會的語言、價值觀與推理風格。「因為 LLM 受訓練來捕捉並再現訓練資料中的統計規律,而這些資料往往過度代表主流語言與意識形態,它們的輸出通常反映的是人類經驗中狹隘且偏頗的切片,」Sourati 解釋。

思考風格的多樣性受損

研究人員指出,儘管研究顯示個人在使用 LLM 時往往能產生更多細節豐富的點子,但群體在使用 LLM 時產生的創意點子反而比單純集合集體力量時更少且更缺乏創造力。

「即使人們不是 LLM 的直接使用者,LLM 仍然會間接影響他們,」Sourati 說。「如果我周圍許多人以某種方式思考和說話,而我做法不同,我會感受到必須與他們保持一致的壓力,因為那看起來像是更可信或社會上更可接受的表達方式。」

研究顯示,在與有偏見的 LLM 互動後,人們的意見會變得更接近使用的 LLM。LLM 也偏好「思維鏈推理」等線性推理模式,要求模型逐步展示推理過程。這種強調減少了直覺或抽象推理風格的使用,而後者有時比線性推理更有效率。

研究團隊建議,AI 開發者應刻意將語言、觀點與推理的多樣性納入模型。他們強調,這種多樣性應基於全球人類實際存在的多樣性,而非引入隨機變化。「如果 LLM 有更多處理想法與問題的多樣化方式,它們將能更好地支持我們社會的集體智慧與問題解決能力,」Sourati 表示。

原文重點

  • 認知多樣性下降:全球數十億人依賴少數 AI 聊天機器人,導致人類思考與表達方式同質化
  • 西式價值觀主導:LLM 訓練資料過度代表主流語言與意識形態,輸出反映狹隘的人類經驗切片
  • 群體創意減損:群體使用 LLM 時產生的創意點子比集合集體力量時更少且缺乏創造性
  • 推理模式單一化:LLM 偏好線性推理,減少直覺或抽象推理的使用
  • 使用者主動性流失:使用者常接受「足夠好」的模型建議而非自行創作,逐漸將主導權讓給模型