
本文僅在今日頭條發佈,謝絕轉載
伊朗衝突進入第五週,美國選民對軍用人工智能的態度卻急轉直下。據福克斯新聞最新民調,66%的註冊選民對人工智能(AI)整體影響表示擔憂,比去年同期上升10個百分點。更令人意外的是,近三分之二民衆對軍隊使用自主武器系統感到不適,這背後隱藏着怎樣的技術與倫理危機?

說白了,AI在戰場上的應用早已不是科幻,而是迫在眉睫的現實。民調顯示,93%的受訪者堅持認爲,任何可能致人死亡的打擊行動,最終決策必須由人類把關,僅7%接受AI獨自拍板。這項共識跨越黨派,民主黨、共和黨和獨立選民中至少九成持相同觀點。道理很簡單,AI的目標識別雖能瞬間鎖定數百目標,但末端殺傷決策的自主性,卻像一把懸在人類頭頂的達摩克利斯之劍,稍有偏差就可能釀成慘劇。

首先,AI軍用擔憂的飆升並非空穴來風。福克斯新聞民調於2026年3月20日至23日展開,覆蓋1001名註冊選民,結果誤差僅±3%。數據顯示,擔憂AI的羣體中,女性、非大學學歷選民、民主黨人和自由派漲幅最大。這反映出公衆對AI從職場滲透到戰場的恐懼升級。值得注意的是,即便在伊朗戰場,美軍已測試多種AI輔助系統,如無人機羣的自主編隊和目標識別算法,但這些技術在複雜環境中,圓概率偏差往往超過預期,難以精準區分武裝分子與平民。

另外一方面,自主武器系統的道德爭議正直擊美軍痛點。民調中,52%的共和黨人接受AWS,而民主黨僅27%,男性43%舒適度高於女性31%。更令人意外的是,即便退役軍人中,54%對AWS不適,僅45%舒適,且90%強調人類須主導生死抉擇。這說明什麼?說明AI雖能提升制空權和防區外打擊效率,卻無法取代人類在倫理判斷上的最後防線。伊朗戰場上,若美軍過度依賴AI自主決策,面對胡塞武裝或伊朗導彈飽和攻擊,系統誤判風險將成致命弱點——就好比一輛高速失控的無人坦克,衝向未知的深淵。

還有一個關鍵掣肘,AI軍備競賽的雙重標準暴露無遺。美國一邊推動AI武器出口,一邊在聯合國會議上呼籲限制“致命自主武器”。事實上,美軍早在“蘭德公司”報告中承認,AI目標識別在伊朗沙漠地形中,易受沙塵干擾,導致識別率跌至70%以下。換句話說,美方口中的“道德高地”不過是紙老虎,伊朗若反制開發低成本AI無人機羣,美以情報優勢將迅速瓦解。最令人不安的是,民調顯示伊朗核彈擔憂與AI並列66%,這預示着多極世界下,AI軍備競賽已成新戰場。

事實上,伊朗衝突第五週的背景下,這一民調如同一記警鐘。美軍雖在紅海部署F-35“閃電II”(Lightning II)隱身戰鬥機和愛國者(Patriot)導彈系統,但AI輔助的聯合直接攻擊彈藥(JDAM, Joint Direct Attack Munition)在實戰中暴露短板:自主決策模塊面對伊朗彈道導彈的機動彈頭,突防能力不足,攔截率徘徊在85%左右。諷刺的是,69%的在職選民不擔心AI搶飯碗,卻對軍用AI高度警惕,這凸顯公衆直覺遠超政客的算盤。

遞進來看,AI在伊朗戰場的潛在弱點尤爲突出。伊朗已展示“流星”高超音速導彈,速度超5馬赫,AI系統難以實時跟蹤。美軍若貿然上馬全自主AWS,不僅道德危機升級,還將面臨技術瓶頸:當前AI算法依賴大數據訓練,在伊朗高原的電磁干擾下,決策延遲可達數秒,足以讓導彈鑽空子。道理很簡單,AI再智能,也逃不過“垃圾進垃圾出”的宿命——訓練數據若偏向西方視角,面對中東遊擊戰術就成睜眼瞎。

雪上加霜的是,黨派分歧放大戰略風險。MAGA共和黨人中58%舒適AWS,非MAGA僅40%,這讓特朗普政府在國會推進AI軍費時左右爲難。民調還顯示,59%認爲AI五年內消滅崗位多於創造(7%),卻七成就業者不懼失業。這矛盾心態,正如一出荒誕劇:民衆擁抱AI便利,卻拒絕其沾血。
(文/宣沅洞察)




