作者:賈永
伊朗首都德黑蘭上空的爆炸聲已經過去幾天。廢墟開始清理,遇難者正在下葬,新聞頭條又在被新的熱點取代。
但有一個問題,不會隨着硝煙散去而消失:那天,真正決定哈梅內伊和會議桌旁40多位高官生死的,究竟是五角大樓某個操作員面前的屏幕,還是幾小時前就已經跑完、只等他按下確認鍵的算法?

可怕一:20秒,從決策者到橡皮圖章
我們所熟悉的戰爭,人從頭到尾都在場——偵察兵用眼睛發現目標,指揮官用腦子判斷價值,士兵用手扣動扳機。每一步都有人承擔責任,每一步都有人可以喊停。
2月28日的德黑蘭不是這樣。
美以聯軍的星盾衛星用激光鏈路把實時畫面傳回後方,帕蘭提爾的“戰場大腦”把多源情報整合成目標清單,Claude大模型把情報研判週期從數天壓縮至小時級,無人機蜂羣自主編隊、自主避障、遭遇雷達鎖定能自動反擊。
人,在這個鏈條裏的位置,只剩下一件事:在20秒內,按下一個鍵。
20秒,不夠思考,不夠質疑,不夠猶豫。20秒,只夠確認屏幕上那個紅框是“敵人”,然後按下去。
荒誕的是,這個“確認”往往還是形式上的——系統已經鎖定,蜂羣已經出發,人的按鍵只是讓殺戮“合法化”的橡皮圖章。
當決策速度不再屬於人,戰爭就不再是“人的戰爭”。可怕嗎?
可怕二:當斬首變得像刪文件一樣容易
歷史上,戰爭一直有門檻。地理的阻隔、情報的困難、成本的制約,都在無形中限制着戰爭的規模和頻率。
現在,AI正在把這些門檻一一削平。
過去,即使擁有強大情報能力的國家,要行刺另一個國家的領導人,也需要潛伏多年的特工網絡、需要周密的前期偵察、需要承擔巨大的失敗風險。現在呢?衛星盯着,算法算着,無人機飛着。只要情報到位,幾千公里外就能完成一次“刪除”。
門檻越低,戰爭就越容易被觸發。當“斬首”變得像刪文件一樣輕易,它就會從“最後手段”變成“第一選項”。
德黑蘭的那個早晨,美以之所以選擇在光天化日之下動手,也許不是爲了戰術突然性,而是爲了傳遞一個信號:想什麼時候打,就什麼時候打;想打誰,就打誰。
這個信號,全世界都收到了。也許,美國政客需要的就是這一點。
可怕三:“三隻時鐘”撕裂:軍事跑得飛快,政治和社會還在原地
軍事戰略家曾經提出過一個“三隻時鐘”理論。
軍事時鐘跑得最快。AI能在幾小時內完成斬首,能在幾分鐘內摧毀一座城市。
政治時鐘跑得慢得多。戰後談判需要數月甚至數年,國際秩序的修復需要更久。
社會時鐘跑得最慢。仇恨的消解、創傷的癒合、認同的重建,往往需要一代人甚至幾代人。
德黑蘭的爆炸只用了幾個小時,但它點燃的仇恨,又將要燒多少年?按下刪除鍵的那一刻,有人想過回撤鍵在哪裏嗎?
更令人不寒而慄的是最新的AI兵棋推演實驗:當大語言模型被放在地緣政治危機的懸崖邊時,95%的對局中,AI最終按下了核按鈕。機器不懂恐懼,不懂妥協,不懂“同歸於盡”意味着什麼。在它們預測下一個詞的邏輯鏈路裏,千萬人的傷亡只是損失函數上的一個數字變化。可怕吧?
可怕四:真正的危險,不是機器有了意識,而是人沒了底線
多人擔心AI會產生自我意識,反過來控制人類。這當然值得警惕,但更迫在眉睫的危險還不是這個。
更危險的是:AI讓殺人變得太容易,而一些人正在習慣這種容易。
以色列軍隊使用的“薰衣草”系統,能把打擊目標的審查時間壓縮到20秒。20秒,夠幹什麼?不夠覈實目標身份,不夠評估附帶損傷,不夠判斷情報真僞。20秒,只夠按下一個鍵。這樣的瞬間,還有思考道德的空間嗎?
當一個國家的“心臟”可以被如此輕易摘除,當“刪除”成爲解決衝突的首選項,當20秒的決策窗口取代了漫長的權衡——人類正在失去的,不只是對戰爭的恐懼,還有對生命的敬畏。
這已不是技術問題,而是文明還能不能延續的問題。
可怕五:有人正在習慣沒有回撤鍵的戰爭
德黑蘭的新聞熱度慢慢就會過去,生活也會慢慢恢復正常。但那個問題還在:那天,真正決定生死的,是人,還是算法?
如果答案是人,那人在20秒內做了什麼思考?如果答案是算法,那算法爲什麼要聽人的?
更加可怕的是,無論答案是什麼,似乎都沒有人追問了。
從2月28日那個早晨開始,一些人甚至更多的人,可能正在習慣這種戰爭。習慣用20秒決定生死,習慣把“刪除”當作選項,習慣在屏幕上看爆炸,然後切換到下一個視頻。而硅谷的那些科學家們,正在把越來越強大的算法交到美國政客和軍方手裏,卻沒人能保證這些算法會在哪一天,把人類帶進無法回頭的深淵。
這——纔是最最可怕的。




