【TechOrange 編輯部推薦好書:《AI世代與我們的未來》】
俄烏戰爭持續,在這場現代戰爭中,我們可以看到雙方皆使用了大數據、無人機等科技手段。烏克蘭也使用 AI「辨識」陣亡的俄羅斯士兵,希望在確認身分後能通知他們的家人,讓家人有機會來接走遺體。
但如果將人工智慧的「非人邏輯」導入軍事行動,軍事系統與流程會改變戰略,創造出新的維度,甚至包括了能自行選擇目標、不需人類介入就交戰的系統。在人工智慧龐大的益處背後潛伏著哪些危機,而我們又該如何面對日新月異的科技呢?
文 / 亨利.季辛吉、艾力克.施密特、丹尼爾.哈騰洛赫,譯者 / 葉妍伶
人工智慧對軍用科技的影響
過去軍用和民用的界線有三種特質:科技差異、集中控制、效果範圍。僅限軍用或僅限民用的科技通常有完全不同的應用方式。集中控制指的是政府容易管理,不會輕易散播逃離政府的控制。最後,效果範圍是指這項科技潛在的摧毀力。
綜觀歷史,許多技術都是軍民兩用的,有些可以容易地廣為散播,有些有強大的毀滅力。不過,在這之前,還沒有任何一項技術同時具備軍民兩用、容易散播且破壞力強大這三種特質。鐵道可以運送商品到市集,也可以載士兵上戰場,但是沒有破壞力;核子科技可兩用,也有強大的破壞力,但是需要複雜的基礎建設,所以政府要掌控還算相對容易;獵槍可以廣為散播,也屬於軍民兩用,但是殺傷力有限,持槍者不至於在戰略層次造成毀滅性的結果。
人工智慧則打破了先例。人工智慧顯然具備了軍民兩用的特質,也可以輕易散播,因為本質上,人工智慧就是幾行程式碼。大部分是演算法(有少數例外),只要在電腦或小網路上就可以運行,這表示政府很難透過控制基礎建設來操控這項科技。最後,人工智慧的應用可以發揮強大的破壞力。這種罕見的集合,再加上牽涉到廣大民眾,遂在戰略挑戰上帶來了新的複雜度。
由人工智慧運作的武器可能會讓敵手以超凡的速度發動數位攻擊,戲劇性地提高人類突破數位罩門的能力。因此,一個國家可能根本沒有時間去評估對手來襲的訊號,必須迅速反擊或承受失能的風險。
如果這個國家有方法,就會選擇在當下同時回應,在對手全面攻擊之前,建立人工智慧運作的系統來掃描攻擊,並且讓人工智慧系統有能力反擊。
對手呢,若根據回報發現對方有這樣的系統,可以在無預警的情況下行動,迅速增建和計畫,可能會發展出平行的科技或不同的演算法。
除非費心發展出共同的限制觀念,人類必然不可能三思而後行,就算知道要採取睿智的行動,在這當下,想要先行動的衝動一定會讓人不智(正如 20 世紀初期所示),或人類根本來不及參與這樣的決策。
若演算法失誤,衝突風險恐升高
在證券市場裡,所謂的計量金融公司發現人工智慧演算法可以看出股市的模式,用最快的速度下單,就算是最厲害的交易元也追不上。因此這樣的公司把部分證券的交易控制權,委由演算法進行。在許多例子中,這些演算法系統的獲利程度遠大過人類的能力。不過,演算法有時候會誤算,離譜的程度也遠超過人類犯下最大的錯誤。
在金融世界裡,這樣的錯誤會重挫投資組合,但不會致命;但是在戰略領域裡,像「閃電崩盤」這樣的演算法失誤,就會導致災難。數位領域裡的戰略國防如果需要戰術攻擊,其中一方的計算或行動若出錯,可能會意外觸發升高衝突的模式。
就算想要把這些新能力整合到已經定義好的策略觀念或國際均衡裡,也不容易,因為這麼做所需要的傑出科技實力和專業能力,早就不掌握在政府手中了。政府承包商和個人投資戶、創業家、新創公司、私人研究實驗室等許多行為者和機構,都參與了塑造科技的過程,而這些科技具有戰略意涵。
不是每個人都認為自己的任務和聯邦政府所定義的國家目標相符。產業、學界和政府相互教育的過程可以橋接鴻溝,確保大家都在共同的概念架構下理解人工智慧在戰略意涵的主要原則。過去很少世代要面對這麼複雜的戰略與科技挑戰,對於戰略的本質或進行討論所需要的語彙也沒什麼共識。
如何管理人工智慧在軍事上的應用?
核武時代還沒有化解的挑戰,是人類開發出一項科技,而戰略專家找不到可用的作戰準則。人工智慧時代的困境則大不相同,很多人都可以取得、熟練並運用這項技術。相互戰略約束的成就,或甚至對約束的定義有共識,在概念上和實務上都會比以前更加困難。
為了管理核子武器,花了半世紀時間,成效還很零零落落。可是評估核武平衡的挑戰相比之下就很直接了當,彈頭可以數,爆炸力也已知。相反地,人工智慧的能力還未定,因為人工智慧一直在變化。人工智慧和核武不一樣,它很難追蹤,一旦經過訓練就可以輕易複製,以及大多在許多小機器上便可運作。
要偵測到人工智慧的存在,或確認人工智慧不存在,兩者都很困難,以現代科技來說不可能辦得到。在這年代裡,嚇阻比較可能來自複雜程度人工智慧的攻擊可以有不同的方向,人工智慧的反應速度很快。
要管理人工智慧,戰略專家一定要考慮,怎麼把人工智慧整合到國際關係中負責任的模式裡。在部署武器之前,戰略專家一定要明白使用後的反覆效果,衝突升高的可能和降低衝突的方式。負責任的戰略搭配有節制的原則很重要。
政策制定者應該盡力同時注意軍備、防衛科技與戰略,進行軍備控制,而不是把新科技當作是隨著時間會愈來愈不同,且在功能上相對抗的步驟。一定要寫好準則,並且在運用武器之前就先做好決策。
約束的條件是什麼?傳統上對一項戰力施加約束,出發點都很明顯。在冷戰期間,這方法有點效果,至少有象徵性的效果。部分戰力被限制了(例如彈頭),其他戰力(例如中程導彈)直接被禁止。
但不管是要限制人工智慧潛在的能力或數量,都不符合這個科技的特質,人工智慧廣為民間所用,又會持續進化。還必須研究其他限制因素,重點在人工智慧的學習和瞄準能力。
一個沒有「人工智慧武器」存在的世界可能嗎?
美國在一項決策中預見了這個挑戰,區分出人工智慧所操作的武器和人工智慧武器。前者讓人類發動的戰爭更精確、更致命、更有效,後者可以不需要人類操作就自主做出致命的決定。美國宣布自己的目標是要把人工智慧武器的使用限制在第一類,並期待能創造出一個世界。
在這個世界裡,所有國家包括美國,都沒有第二類人工智慧武器。這樣的區分很明智。同時,科技的學習能力和進化能力會讓這樣的約束無效。定義人工智慧所操作的武器有何本質和約束的方式,並且是雙邊相互約束很重要。
在 19 和 20 世紀,各國發展出不同戰事的約束方式,例如禁用化學武器、避免傷及平民等等。人工智慧武器讓很多新類型的活動都有可能實踐,也讓以前的活動變得更強大,全世界的國家一定要儘快決定哪些活動符合人類的尊嚴與道德規範。安全感來自我們能期待未來的發展,不只是對現有的威脅做出反應。
人工智慧相關的武器科技帶來了困境,研究和發展的領先攸關國家存亡,如果沒有領先,就會失去商務競爭力和重要性。可是這項新科技適合散播的本質,讓很多約束的談判根本連概念都談不成。(責任編輯:游絨絨)
(本文書摘內容出自《AI世代與我們的未來》,由 聯經出版 授權轉載,並同意 TechOrange 編寫導讀與修訂標題。首圖來源:create.vista)