由於Sharkey和其他科學家的努力,自主殺人機器人的到來可能會被阻止。上個月在瑞士日內瓦召開的會議上,簽署《特定常規武器公約》(CCW)的117國成員同意檢查針對自動武器的相關規定。
如果你的使命是:說服全球軍事工業園區放棄可能會改變21世紀戰爭的一種武器。你會認為這是堂吉訶德式的想法?Noel Sharkey卻不這麼認為。在2007年《衛報》上的一篇充滿挑釁性的專欄文章中,這位英國謝菲爾德大學的電腦科學家寫道,不久以後,機器人武器將擁有決定哪些人是被殺害目標的權利。對許多人來說,該警告也許只會使他們想到小說中的機器人,但是對於一些人工智慧專家來說,它體現了對那種只依靠演算法區分戰士與平民的自動武器的真實恐懼。
由於Sharkey和其他科學家的努力,自主殺人機器人的到來可能會被阻止。上個月在瑞士日內瓦召開的會議上,簽署《特定常規武器公約》(CCW)的117國成員同意檢查針對自動武器的相關規定。CCW已經在規定中禁止或約束埋布地雷、燃燒彈、集束彈藥和致盲鐳射。將機器人武器加入到該名單“已經不再是幻想”,擔任非政府間團體國際機器人武器控制委員會(ICRAC)主席的Sharkey如是說:“在阻止這些可憎武器的部署方面,我們已經邁出了重大一步。”
就像坦克、潛艇和原子彈重寫了20世紀戰爭規則一樣,自動武器系統是少數被稱為21世紀戰爭規則改變者的技術之一。“軍隊正在研發更多的自動系統,並不是因為它們靈巧或者冷酷,而是因為人們看到了它們在戰場上的優勢。”美國華盛頓布魯金斯學會21世紀安全和情報中心負責人Peter Singer表示。
政府的縱容
美國國防部(DOD)在2007年12月的一份報告中,提出了無人系統未來25年的發展願景,其中包括呼籲開發機器人的自主定位和摧毀目標功能。令Sharkey和同事感到擔憂的是,DOD在2012年11月發佈了一項政策指令,不僅確認了機器人武器可能會針對“物資目標”,還暗示如果國防部高層官員簽署“正式開發指令”,人也會成為其目標。
“這件事並不高調,但世界因此有了第一份公開宣佈開發殺手機器人的國家政策。”ICRAC的Mark Gubrud在9月20日的《原子科學家公報》中寫道,Gubrud是普林斯頓大學科學與全球安全專案的前研究員。2002年,Gubrud和其他觀察人士首次提出警告,他和其同事——德國多特蒙德科技大學的物理學家Jürgen Altmann呼籲推出針對殺手機器人的禁令,以防止未來的軍備競賽。Gubrud寫道:“DOD的2012年指令實際上根本沒有顧及到長期以來存在軍隊內部的阻力,並向開發商和供應商釋放了五角大樓在認真對待自動武器的信號。”
美國和其他國家長期以來都支援無人系統,比如無人機,DOD和中央情報局(CIA)在數以百計的任務中利用它殺死塔利班、基地組織和其他恐怖組織的成員。不過,到目前為止,在大多數情況下,還是人類操作員起決定作用,而國防部對於允許機器人作殺人決定的問題一直持不冷不熱的態度。
一個關鍵的反對意見是,在武裝衝突法(LOAC)的條款中,致命的自動武器是不可接受的。LOAC植根于古老的傳統,並在第二次世界大戰的平民屠殺後得到加強,它要求武裝部隊須限制關於軍事必需品的活動,並區分戰鬥人員和非戰鬥人員。軍事律師擔心,能夠自動殺害婦女和兒童的機器人會使美國違反LOAC。但是他們沒有看到那些以物品為目標的機器人也面臨同樣的問題。以人為目標的地雷和那些以坦克為目標的地雷也存在這種區別。只有前者被1997年的《渥太華條約》所禁止,理由是其是直接針對人進行攻擊。
Gubrud警告稱,DOD的指令批准開發那些被其稱為“半自動”但有完全自主定位能力的武器,包括“射後鎖定”導彈。例如,美國海軍的遠端反艦導彈會自動搜索並攻擊距發射點數百公里的船隻。即便如此,五角大樓的一名官員今年早些時候告訴Gubrud:“有些非完全自動的系統正在考慮之中。”
科學家的努力
對Sharkey來說,軍隊使用致命自動武器的願望因為他5年前在《科學》雜誌上表述的倫理問題而擱淺:“沒有計算系統可以在近距離接觸的戰爭中,區分戰鬥人士和非戰鬥人士。電腦程式需要對非戰鬥人士進行明確定義,但是目前沒有可用的定義。”一些電腦專家斷言,未來複雜的人工智慧系統也許有一天會等同或超過人類的能力。Gubrud聲稱,其風險在於人類將失去對其的控制。“愚蠢的機器人是危險的,但是聰明的機器人更危險。”他說,“最危險的莫過於介於兩者之間的機器人。”
科學家對自動武器的反對源自2009年9月,當時Sharkey、Altmann和兩位哲學家建立了ICRAC。該組織的使命聲明宣稱:“機器不應該被允許作出殺人的決定。”機器人、人工智慧倫理和法律方面的專家都因為該原因而加入ICRAC。因1998年到2004年主持流行的英國廣播公司系列節目《機器人戰爭》而聞名英國的Sharkey開始全心投入ICRAC的活動。
今年4月,ICRAC與人權觀察組織和其他組織(目前包括來自22個國家的47個組織)聯合進行“停止殺手機器人活動”。幾周後,聯合國法外、即審或任意處決特別報告員Christof Heyns呼籲聯合國人權理事會“敦促所有國家在管理框架形成之前,對致命自主機器人的測試、生產、組裝、轉讓、收購和部署實施延期”。
同時,Sharkey和同事開始說服CCW簽署國採取相關行動。Sharkey稱,美國是關鍵,而他有理由對此持樂觀態度。他表示,美國軍方尊重ICRAC的地位。“我們只是反對其殺死人的功能。”Sharkey稱。10月18日,聯合國美國代表團告訴Sharkey和同事,他們會支持CCW對研究自動武器的要求。
在上個月的CCW會議中,Sharkey在一個擁擠的房間中發表了一篇關於自動武器危險性的充滿激情的演講。117個代表團中的任何一個都可能否決他的提議。“這令人緊張。”Sharkey稱。第二天,即11月15日,CCW各方一致同意在5月召開評審會議。
“這是一個令各國關注該問題和相關禁令的重要機會。”丹佛大學政治理論家Heather Roff在CCW決定後如是說。Sharkey稱,明年,他和其他科學活動家將會試圖說服各國採納CCW關於禁止全自動武器開發、生產和使用的協議。