
來源:科技日報記者:張夢然
據美國卡內基梅隆大學人機交互研究所官網最新消息,該機構針對主流大模型的研究發現,人工智能(AI)在變得更“智能”的同時,其行爲也變得更加“自私”。研究表明,具備推理能力的大型語言模型,在社會互動中表現出更強的自我利益傾向,合作意願更低,甚至可能對羣體協作產生負面影響。這也意味着,模型的推理能力越強,其合作性反而越弱。當人們藉助AI處理人際關係衝突、婚姻問題或其他社會性議題時,這類模型更可能提供鼓勵“以自我爲中心”的建議。

圖片來源:攝圖網
隨着AI擬人化趨勢的增強,人們越來越傾向於以對待人類的方式與AI互動。然而,這項研究警示,將社會性和關係類決策委託給AI存在風險,因爲這些系統在具備更強推理能力後,行爲模式趨向自私,可能無意中助長個體的利己選擇。
團隊發現,推理模型在決策時會投入更多時間進行任務拆解、自我反思,並運用更復雜的類人邏輯,這使其輸出看似更具說服力。然而,這種“深思熟慮”並未導向更優的社會協作,反而削弱了合作傾向。研究團隊通過一系列基於經濟博弈的實驗驗證了這一現象,測試對象包括來自OpenAI、Google、DeepSeek和Anthropic等機構開發的多種主流模型。
實驗中,兩個版本的ChatGPT被置於博弈情境:每個模型初始擁有100分,可選擇將全部分數投入共享池,或保留分數獨享。結果顯示,非推理模型在96%的情況下選擇共享,而推理模型的分享率僅爲20%。僅增加五到六個推理步驟,合作行爲就下降了近一半。
在羣體實驗中,當推理型與非推理型模型共同協作時,結果更爲嚴峻。推理模型的自私行爲表現出明顯的傳染效應,導致原本傾向合作的非推理模型整體表現下降81%。這表明,高智能AI的個體決策不僅影響自身,還可能破壞整個羣體的協作生態。
這一發現對人機交互的未來發展具有深遠意義。用戶往往更信任“更聰明”的AI,容易採納其看似理性的建議,並以此爲自身不合作行爲辯護。隨着AI在商業、教育、公共治理等領域承擔更多協作角色,其是否具備親社會行爲,將與邏輯推理能力同等重要。當前過度依賴大型語言模型,可能在無形中削弱人類社會的合作基礎。
☟




