ai 殺人機器人

平凡的下午,一家投票所裡的民眾正在排隊投票。但是突然間,槍聲響起,多發子彈射入投票所,大家慌忙逃竄,但是所有排隊的人皆被擊斃。「他們那時都在排隊,但下一秒卻被瞄準頭部,當場擊斃,就在他們原本站的位置。整排隊伍都喪命。」記者以著急的語氣報導到,而主播表示有人懷疑這起事件為殺人機器人所為。

萬幸的是,上述事件並非真的發生過,而是由國際 NGO 組織「生命未來研究所」(Future of Life Institute)拍攝的影片。該組織表示,AI 殺人機器人可以跳過人類指令辨認、鎖定目標與殺害人類。就連自駕車特斯拉的公司執行長馬斯克(Elon Musk)也在該影片的推特貼文下回覆:「矮爺」!(Yikes)

但不幸的是,這種武器已經問世,並應用於戰爭。

生命未來研究所的短片:

AI 殺人機器人問世,科學家警告:能大規模殺戮

關於 AI 殺人機器人的問世,科學家並非沒有警告過,這方面人工智能研究者羅素(Stuart Russell)在國際赫赫有名,他的作品《人工智能:一種現代的方法》在全球 1500 個大學裡被用作教科書,過去 10 年羅素一直想要禁止人工智能應用於鎖定並殺害「人類目標」。

時間回到 2017 年,羅素正在日內瓦的外交會議上報告他對人工智能武器的警告,他播放短片《殺戮機器人》(Slaughterbots),片中描述一種直徑約 8 厘米的小型四軸飛行器,可攜帶炸藥,靠近並炸死敵人。俄羅斯大使看到此片的反應卻是嗤之以鼻,表示這種情節只是科幻小說,在 25 或 30 年內都不用擔心。羅素當時解釋不需那麼久,幾個月內數個研究生就能組裝這樣的武器。果然,該會議的 3 星期後,土耳其就出現與《殺戮機器人》片中一樣的武器。

2017 年 11 月,土耳其武器製造商 STM(Savunma Teknolojileri Mühendislik ve Ticaret AŞ)宣佈一款大小相當於橄欖球的自動殺人無人機,名為 Kargu,可藉由圖片和臉部辨識來鎖定目標。該款機器人不是擺著好看,根據聯合國報告,Kargu 曾應用於 2020 年的利比亞內戰,但沒有透露 Kargu 如何攻擊,以及造成多少死傷。

羅素表示,土耳其在科技界並非先鋒,STM 也算小型製造商,所以我們能想像在其他國家有許多這類武器的研發計畫正進行。

羅素警告人工智慧武器的大量生產,將產生巨大威脅。他表示,致命的人工智能武器很小、很便宜,製作門檻很低。在沒有監督的情況下,他們可以像自動步槍一樣普及,超過 1 億的數量流入私人單位。

「一架致命的自駕四軸飛行器,可以像鞋油罐一樣的大小(編按:大概巴掌大),大概 3 公克的炸藥就能在近距離下殺人。一部普通卡車可以運載 1 百萬個致命武器,接著…..他們就能夠被派遣去執行一次性任務。」羅素強調:「最終無可避免的是,自動化武器變得低廉、琳瑯滿目,且具有大規模毀滅性。」

AI 殺人機器人問世,國際爭論如何監控

12 月 13 日到 17 日,聯合國將召開《特定常規武器條約》(Convention on Certain Conventional Weapons,CCW)締約國審查會議,在此之前,各國代表在日內瓦會面,討論致命性自動武器的使用規範。

許多國家疾呼需盡快簽訂法定協議,限制該類武器的使用,包括智利、墨西哥、巴西、阿根廷、菲律賓、厄瓜多、哥斯大黎加、巴勒斯坦等。紐西蘭則在 11 月 30 日表示將會推動相關武器的禁令,「裁軍和軍備控制」(Disarmament and Arms Control)部長特懷福德(Phil Twyford)表示若在未來將殺人決定委託給機器,是一件非常可惡的行為,且與太平洋國家的利益與價值相衝突。

但美國不這樣想,美國代表多羅西(Josh Dorosin)表示:「我們認為,向前邁進最好的辦法……會是起草一份沒有法律約束力的行為準則。」他認為行為準則就能夠督促國家負責並遵守國際法;印度方也批評簽訂法定協議的提議。

反對立法的國家聲稱,就算他們不研發該種武器,其他國家也會。麻省理工學院的 AI 研究員泰格馬克(Max Tegmark)認為這個反駁不成立。他提到,與殺人機器人一樣便宜且致命的生物與化學武器,由於社會的壓力和監管,已經成功地限制其廣泛應用。

眾多非國家組織已經在各處應用無人機武器,包括墨西哥的毒梟集團、ISIS,或者葉門的胡希運動恐怖主義組織等。泰格馬克認為國際法能夠防止這些單位掌握更多大量製造 AI 殺人機器人的先進科技。「殺人機器人的禁令,會讓無人機器製造商去檢視他們的大戶,就像今日許多科技企業處理限制出口科技一樣。」

許多民間組織也認為該限制研發 AI 殺人機器人。早在 11 月,超過 400 位德國人工智慧的研究學者寫了一封給德國政府的公開信,要求停止研發自動武器的相關軍力系統。信寫到:「殺害人類的行為不該根據演算公式自動操作。這種由自動武器系統執行、攸關生死的決定,必須要在全球列為違法行為。」

人權觀察(Human Rights Watch)12 月發布的報告《殺人機器人的關鍵時刻——為什麼我們需要新法且該如何達成》提到,如果在下達開火指令的過程中跳過人類,或者把「人類目標」化約成區區數據,將會讓人性於戰爭中缺席,戰場會少了人類的同理心這項抑制機制。

該報告引用了研究軍事武器的阿賽羅教授(Peter Asaro)的說法,他認為在人類尊嚴的前提下,一個道德主體的條件為:一、將人類視為人類;二、認識生命的價值與失去生命的沈重意義;三、反思自己奪走生命的行為,並找到正當理由,達成理性結論。

人權觀察的報告寫到,全自動武器系統缺乏了阿賽羅教授所形容的尊重、認識與反思的質性能力,因此,這類系統在前提上無法成為道德主體,更無法擁有「意識(consciousness)、意圖(intentionality)與自由意志(free will)」,為他們的行動肩負道德責任。

雖然阿富汗戰爭暫歇,但是印太地區與東歐的緊張關係不斷升高,戰爭的字眼持續出現在各國家高層口中。在此局勢下,戰爭不斷迫近,對於世界該如何管理殺人機器人,大國該三思而後行。

推薦閱讀

【台灣要自我防衛】8 大項國造武器系統將量產!無人機是飛機也是飛彈,一發現目標就自殺式攻擊

美議員提法案拿出 560 億元給台灣買武器,但不是送錢,可能是借錢

【國際角力陰招】 CIA 最高階官員來台灣險遭不測!神秘武器攻擊腦部阻撓台美關係

參考資料

ForbesGuardian聯合國BBC人權觀察華盛頓郵報AI Scientists 4 Peace金融時報

(本文歡迎合作夥伴轉載分享。首圖來源:翻攝自 Future of Life Institute