當算法開始預測人生,我們失去了什麼?

由 DeepTech深科技 發佈於 科技

'26-02-23

(來源:麻省理工科技評論)


人類的本質,從根本上說,是一種預測者。


無論是藉助過往經驗,還是依賴因果邏輯,試圖看清未來這件事幫助我們狩獵、躲避獵捕、播種農作物、建立社會紐帶,並在一個並不以人類生存爲優先的世界中延續至今。事實上,隨着占卜工具歷經數百年的演變,我們對未來可以被認知、被掌控的信念,只增未減。


如今,我們淹沒在一片鋪天蓋地、無休無止的預測海洋之中,大多數人對此幾乎毫無察覺。就在我寫下這句話的此刻,某臺遠程服務器上的算法正忙着根據我已輸入的文字,猜測我的下一個詞。如果你正在網上閱讀這篇文章,另一套算法可能已經爲你推送了一則它判定你最有可能點擊的廣告。


如果想到一羣逐利的企業正將一套無處不在、幾乎隱形的預測機制悄悄嫁接進你的生活,你感到不安……那我們感同身受。


這一切究竟是如何發生的?人們渴望可靠預測的心理不難理解。但沒有人曾主動報名,要讓一個無處不在的算法神諭來介入自己生活的方方面面。


三本新書試圖釐清這個以未來爲導向的世界——我們如何走到今天,以及這種變化意味着什麼。三本書各有其應對新現實的方案,但在一件事上達成共識:預測歸根結底是關於權力與控制的。


(來源:麻省理工科技評論)


在《預測的手段:AI 的真實運作機制(以及誰從中獲益)》(The Means of Prediction: How AI Really Works (and Who Benefits))一書中,牛津大學經濟學家馬克西米利安·卡西(Maximilian Kasy)解釋了我們生活中的大多數預測,是如何建立在對大規模標註數據集中規律的統計分析之上的——這在 AI 領域被稱爲監督學習。算法一旦在這類數據集上完成“訓練”,便可接收各種新信息,並對某一具體的未來結果給出最優猜測。


你是否會違反假釋條件?能否還清房貸?入職後會獲得晉升嗎?大學考試能否取得好成績?你家遭到轟炸時你是否在家?我們的生活越來越多地被機器對這些問題的回答所塑造——有時,也會被它縮短。


如果想到一羣逐利的企業正將一套無處不在、幾乎隱形的預測機制悄悄嫁接進你的生活,你感到不安……那我們感同身受。這種格局正在將世界推向一個更冷酷、更單調、更工具化的方向——生活的可能性被提前封堵,根深蒂固的偏見愈發固化,所有人的大腦似乎都在加速退化。卡西認爲,這一結果完全在意料之中。


AI 的擁躉們或許會將這些後果定性爲無意爲之,或僅僅是優化與對齊層面的問題。卡西的觀點則截然不同:這些後果恰恰說明系統在按預期運轉。“如果一個決定你在社交媒體上看到什麼內容的算法在煽動憤怒,”他寫道,“從而最大化互動率和廣告點擊量,那是因爲煽動憤怒有利於廣告銷售利潤。”


同樣的邏輯也適用於那些將“可能在工作之外承擔家庭照護責任”的求職者一票否決的算法,以及那些“篩除可能患上慢性疾病或殘疾人士”的算法。對公司利潤有利的事,未必對你的求職前景或預期壽命有利。


卡西與其他批評者的不同之處在於,他並不認爲致力於打造偏見更少、更公平的算法能解決任何問題。試圖重新校準天平,無法改變一個基本事實:預測算法依賴的歷史數據往往充斥着種族歧視、性別歧視以及其他形式的缺陷。他指出,逐利的動機始終會凌駕於消除危害的努力之上。應對這一困局的唯一出路,是對卡西所稱的“預測手段”實施廣泛的民主管控,涵蓋數據、計算基礎設施、技術專長與能源。


《預測的手段》超過一半的篇幅用於闡述這一目標的實現路徑,涉及的機制包括“數據信託”(代表數據貢獻者就數據處理和使用方式作出決定的公共集體機構),以及旨在將 AI 造成的社會危害納入覈算的企業稅收方案。書中充斥着大量經濟學術語,探討“變革主體”如何推動實現“價值對齊”以“最大化社會福祉”。我認爲這些思路有其合理性,但持懷疑態度的人或許會指出,卡西構建新型公共服務機構的這套嚴謹、系統性方案,偏偏出現在公衆對機構信任度跌至歷史低點的時代。此外,還有那個大腦退化的問題。


值得肯定的是,卡西在這一點上是個現實主義者。他並不認爲上述任何提案都會輕易落地,也不指望這些變革能一蹴而就,甚至在近期內實現。他在書末提出了一個令人不安的問題:我們還有那樣的時間嗎?


讀完卡西關於掌控預測手段的藍圖,另一個迫切的問題隨之浮現:我們究竟是如何走到機器介導的預測幾乎無處可逃這一步的?馬克思或許會言簡意賅地答:資本主義。這個答案有一定道理,但它無法解釋,爲何同一類算法既在爲氣候變化建立模型,又在決定你能否獲得腎臟移植,或是我能否申請到汽車貸款。


(來源:麻省理工科技評論)


《非理性決策:我們如何將選擇權交給計算機》(The Irrational Decision: How We Gave Computers the Power to Choose for Us)一書的作者本傑明·雷克特(Benjamin Recht)或許會告訴你,我們當下的困境與決策理論(即經濟學家所稱的理性選擇理論)的理念和意識形態密切相關。雷克特是加州大學伯克利分校電氣工程與計算機科學系的博學教授,他更傾向於用“數學理性”這一術語,來描述那種激發了建造計算機衝動、塑造了計算機最終運作方式、並影響了計算機所擅長解決問題類型的狹窄統計觀念。


這套信仰體系可以追溯至啓蒙運動,但在雷克特的敘述中,它真正紮根是在第二次世界大戰末期。沒有什麼比戰爭更能讓人聚焦於風險與快速決策,而那些在對抗軸心國過程中被證明尤爲有效的數學模型,說服了一批精英科學家和統計學家:這些模型或許也可以作爲設計第一批計算機的邏輯基礎。於是,計算機作爲理想理性主體的概念由此誕生:一臺能夠通過量化不確定性、最大化效用來作出最優決策的機器。


雷克特指出,直覺、經驗與判斷力,讓位於優化、博弈論與統計預測。“這一時期發展出的核心算法,驅動着我們現代世界的自動化決策,無論是管理供應鏈、安排航班時刻,還是在你的社交媒體信息流中投放廣告,”他寫道。在這個以優化爲導向的現實中,“每一個人生決策都被設定成彷彿是在一家虛構賭場中的一輪博弈,每一種論點都可以被簡化爲成本與收益、手段與目的。”


雷克特指出,如今,數學理性(披着人類外衣)的最佳代言人,莫過於民調專家內特·西爾弗(Nate Silver)、哈佛大學心理學家史蒂文·平克(Steven Pinker),以及一批硅谷寡頭。這些人從根本上相信,如果更多人採納他們的分析思維方式,學會權衡成本與收益、評估風險、進行最優規劃,世界將會變得更好。換言之,他們認爲我們都應該像計算機一樣做決策。


我們又該如何證明,那些無法量化的人類直覺、道德與判斷力,纔是應對世界上某些最重要、最棘手問題的更優途徑?


雷克特認爲,這種想法荒謬至極,理由不止一個。僅舉其一:並非自動化出現之後,人類才學會做出基於證據的決策。“清潔飲水、抗生素與公共衛生領域的進步,使人類預期壽命從 19 世紀 50 年代的不足 40 歲提升至 1950 年的 70 歲,”雷克特寫道。“從 19 世紀末到 20 世紀初,物理學領域湧現出改變世界的重大突破,包括熱力學、量子力學和相對論的新理論。”人類在沒有正式理性體系的前提下,造出了汽車和飛機;在沒有最優決策理論的情況下,也摸索出了現代民主這樣的社會創新。


那麼,我們如何說服平克和西爾弗這樣的人,讓他們相信生活中大多數決策其實並不適合被數學理性的磨盤碾壓?更進一步,我們又該如何證明,那些無法量化的人類直覺、道德與判斷力,在應對世界上某些最重要、最棘手的問題時,或許是更優的方式?


(來源:麻省理工科技評論)


也許可以從提醒理性主義者這一點入手:任何預測,無論是計算機生成的還是其他形式的,本質上都只是一種願望——只不過這種願望具有強烈的自我實現傾向。這一理念貫穿了卡里薩·維利茲(Carissa Véliz)那本視野廣闊、論戰色彩鮮明的著作《預言:從古代神諭到 AI 的預測、權力與未來之爭》(Prophecy: Prediction, Power, and the Fight for the Future, from Ancient Oracles to AI)。


身爲牛津大學哲學家的維利茲將預測視爲“一塊將現實向自身彎曲的磁鐵”。她寫道:“當磁力足夠強大時,預測本身就成爲其得以實現的原因。”


以戈登·摩爾(Gordon Moore)爲例。他雖未出現在《預言》一書中,但在雷克特的數學理性發展史中佔有相當重要的位置。作爲科技巨頭 Intel 的聯合創始人,摩爾以其 1965 年的預測聞名於世:集成電路中晶體管的密度每兩年翻一番。“摩爾定律”最終被證明是正確的,時至今日仍然成立,儘管受制於硅原子的物理尺寸極限,它似乎正在逐漸失去動力。


關於摩爾定律,你可以講述這樣一個故事:戈登只是一個富有遠見的人。他那篇發表於《電子學》雜誌、如今已成經典的 1965 年評論文章《在集成電路上塞入更多元件》,不過是對計算領域的發展趨勢將如何影響半導體產業未來的簡單外推。


另一個故事是:摩爾將一個經過深思熟慮的預測拋向世界,而整個行業都有集體利益驅動它成爲現實。正如雷克特所指出的,企業製造更快、更小芯片的財務動機過去存在,現在依然存在。行業可能爲維持摩爾定律的有效性投入了數十億美元,但從中獲得的收益無疑更爲豐厚。摩爾定律是一塊力量強勁的磁鐵。


維利茲指出,預測不僅有自我實現的習性,還會讓我們對當下的挑戰分心。當一位 AI 樂觀主義者承諾通用人工智能將是人類需要解決的最後一個問題時,這不僅塑造了我們對 AI 在生活中所扮演角色的認知,也將我們的注意力從那些現實而緊迫的當下問題上引開,而這些問題在許多情況下正是 AI 本身造成的。


從這個意義上說,圍繞預測的問題(誰在作出預測?誰有權作出預測?)從根本上也是關於權力的問題。維利茲認爲,依賴預測程度最深的社會,往往也是最傾向於壓迫與威權主義的社會,這絕非偶然。“預測是披着面紗的規範性斷言,它們告訴我們該如何行動,”她寫道。“它們是哲學家所稱的言語行爲。當我們相信一個預測並據此行動時,這與服從命令並無二致。”


儘管科技公司極力希望我們相信相反的事,但技術並非命運。人類創造了它,也選擇如何使用它,或者不使用它。面對生活中那些不請自來、無處不在的日常預測,我們能做的最恰當、也最具人性的事,或許就是:拒絕服從。


原文鏈接:

https://www.technologyreview.com/2026/02/18/1132579/robots-predict-future-book-review/

Scroll to Top