還記得科幻電影《2001:太空漫游》《銀翼殺手》和《終結者》嗎?在這些電影中,機器人和計算機系統(tǒng)以別樣的形式(“殺手機器人”)呈現在電影熒幕上,給我們帶來了全方位的視覺沖擊。但如今,這種經典的科幻場景似乎與現實相去甚遠。
現在,我們越來越多地使用自主和智能的計算技術來生活、工作和娛樂。這些系統(tǒng)包括具有獨立推理和決策能力的軟件和硬件。因此,它們既可以在工廠里為我們工作,也能決定我們是否可以獲得房屋按揭貸款;它們不僅能追蹤并測量我們的活動和健康水平,還能清潔我們的客廳地板,修剪我們的草坪,它們已然成為人們生活中須臾不可缺少的重要部分。
顯然,自主和智能系統(tǒng)已開始影響到我們的社會、經濟、政治和私人生活的方方面面,包括平凡的日常生活。這其中不可避免地引發(fā)了一個令人擔憂的問題:計算技術影響到每個人的人權,從生命權到隱私權、從言論自由到社會和經濟權利。那么,在機器人技術和人工智能(AI)日益塑造的技術領域里,人們該如何捍衛(wèi)人權呢?
AI軍備競賽與人權
首先,人們真正擔心的是,機器自主性的不斷增加會危害人類的地位。因為當智能機器造成危害時,無論是在法律意義上還是在道德意義上,誰將被追究責任的問題還不明確,這無疑加劇了人們的擔憂。
雖然還不能確定人們對人權問題的關注是否真的與“殺手機器人”有關,但是將智能機器投入到軍事戰(zhàn)爭中的確引起了人們的無限擔憂。
2017年,美國空軍四星上將Paul Selva在回答關于美國國防部一道指令的相關問題時,就指出不要給軍隊配備人類可能無法控制的自動武器系統(tǒng),并主張在恰當的位置維持“戰(zhàn)爭道德規(guī)則”。
國防部這道指令要求,當自動機器能夠殺死敵軍士兵時,人類操控者必須介入這一決策過程。Selva表示,在戰(zhàn)爭中,軍隊在恰當的位置堅守道德準則非常重要,否則我們可能會向同胞放出一群自己都控制不了的機器人。
表達過類似擔憂的還有SpaceX及特斯拉CEO Elon Musk和已故的著名天體物理學家Stephen Hawking。他們曾在一封公開信中發(fā)出警告,不要讓武器開發(fā)商使用人工智能。
他們在信中寫道:“發(fā)動一場人工智能軍備競賽是一個糟糕的主意,應該禁止人類無法控制的攻擊性自主武器。”
“我們需要主動、提前去監(jiān)管,而不是被動地去反應。在我們需要對AI的監(jiān)管進行反應時,已經太晚了,”Selva說。
不難看出,人們真正應該擔憂的其實是,人類如何使用機器人和人工智能,以及它們在不公正和不平等的政治、軍事、經濟和社會背景下的部署。這在致命的自主武器系統(tǒng)(LAWS)方面尤為突出。
LAWS是能夠在沒有人的情況下,自主完成尋找目標、定位、擊殺敵人這一整套工作的AI系統(tǒng)。只要將其派上戰(zhàn)場,它們將自主辨別敵人并完成殺戮。這不禁引發(fā)眾人的擔心:如果LAWS發(fā)生故障失控,或是受到某些人的惡意操縱,可能會導致無法控制的災難性后果。
很快,一些AI、科學界領袖加入到反對研發(fā)LAWS的隊列中。
今年7月18日,在瑞典斯德哥爾摩舉辦的2018國際人工智能聯(lián)合會議上,包括Elon Musk、谷歌DeepMind創(chuàng)始人在內的超過2000名AI學者共同簽署《致命性自主武器宣言》,宣誓不參與LAWS的開發(fā)、研制工作。這是學界針對“殺人機器人”最大規(guī)模的一次集體發(fā)聲。
在多方呼吁下,各國政府也開始認真考慮LAWS的威脅。2016年12月,在聯(lián)合國的《常規(guī)武器公約》審議大會上,LAWS首次被納入討論范圍。不過,正式的LAWS國際公約誕生仍需時日。
今年8月,LAWS將再次成為聯(lián)合國各國討論的議題。宣言簽署者們希望,他們的行動能促進立法者頒布正式的國際協(xié)議。
AI監(jiān)控與人權
另外,人工智能還徹底改變了戰(zhàn)爭與監(jiān)視行為之間的聯(lián)系。
最近,機器人軍備控制國際委員會(ICRAC)等組織對谷歌參與軍事項目——“Maven項目”,表示了強烈的反對。
據美國國防部網站介紹,“Maven項目”于2017年4月由時任國防部副部長鮑勃·沃克發(fā)起,主要是將大數據、人工智能和機器學習等人工智能技術用于軍事用途,首要任務是研發(fā)整合計算機視覺算法,幫助情報分析人員將海量全動態(tài)視頻數據轉變成具體作戰(zhàn)所需的情報和決策建議,更好地利用數據支持作戰(zhàn)。
按照美國國防部的計劃,“Maven項目”成立六個月就可以運行。為了滿足該項目的迫切時間要求,國防部依靠自身顯然并不足夠。于是,它轉而尋求與學界和業(yè)界的人工智能專家合作,以彌補軍方和硅谷之間的技術差距。就這樣,谷歌公司成為合作隊伍中的一員。
然而,今年3月,當谷歌公司與“Maven項目”簽署合同的消息爆出之后,超過3000名谷歌員工于4月初簽署致谷歌首席執(zhí)行官Sundar Pichai的公開信,建議谷歌退出“Maven項目”,信中寫道:“谷歌不應該參與戰(zhàn)爭。”
4月19日,就在谷歌員工發(fā)出公開信半個月之后,來自谷歌、亞馬遜、微軟和IBM等科技公司的員工又發(fā)布了一封聯(lián)合請愿信,聲明稱科技公司不應該參與到與戰(zhàn)爭有關的商業(yè)中去,因此谷歌應該中止與美國國防部的合作。
谷歌員工的抗議和多家科技公司員工的請愿又得到了來自人工智能學界、計算機學界和倫理學界專家學者的支持。機器人軍備控制國際委員會呼吁谷歌承諾其收集的用戶數據不會用于軍事目的,隨后又加入了谷歌員工對該公司參與該項目的抗議。如今,迫于內外壓力,谷歌公司終于決定于2019年合同到期后,不再續(xù)約。
2013年,Edward Snowden的爆料凸顯了監(jiān)控行為的覆蓋范圍及其深度。這次事件讓人們認識到隱私權受到的可怕威脅,以及情報機構、政府機構和私營企業(yè)之間肆意的數據共享。然而,侵犯人權的類似事件并未就此停止。
最近,圍繞劍橋分析公司利用Facebook等社交媒體平臺獲取個人數據的爭議,繼續(xù)引發(fā)嚴重的擔憂,而這一次則是由于操縱和干預民主選舉,從而損害了言論自由的權利。
與此同時,關鍵數據分析人士質疑與人工智能“白人問題”(white guy problem)相關的歧視性做法。因為在訓練數據中,人工智能系統(tǒng)復制了現有的種族和性別成見,從而使在諸如警察、司法決策或就業(yè)等領域的歧視性做法根深蒂固。
模糊的界限
人工智能對人權的種種影響還在日益擴大。
2018年2月,26位來自牛津大學、劍橋大學、OpenAI、電子前沿基金會(一個非營利數字版權組織)、新美國安全中心(一家美國智庫)等多個研究機構的研究人員發(fā)布了一份人工智能預警報告——《人工智能的惡意使用:預測、預防和緩解》,強調了計算技術對人權、物理安全、政治安全和數字安全的潛在威脅。
該報告預測了未來十年網絡犯罪的快速增長、無人機的濫用、使用“機器人(bots)”操縱從選舉到社交媒體等惡意利用人工智能的場景,號召政府及企業(yè)重視當前人工智能應用中的危險。
但是人們應該如何應對這些威脅呢?人權是否已經為機器人和人工智能時代做好了準備?
實際上,更新當今時代現有人權原則的努力正在持續(xù)之中。包括《聯(lián)合國工商業(yè)與人權的框架和指導原則》在內的努力,試圖為數字時代和生命的未來研究所(FLI)制定的“阿西洛馬人工智能原則”(Asilomar AI Principles)撰寫一部《大憲章》,以確定道德研究的準則,堅持價值觀并致力于人工智能長期而有益的發(fā)展。
毫無疑問,這些努力值得贊揚,但還遠遠不夠。政府及其相關機構、政黨以及私人公司,尤其是技術領先的科技公司,必須承諾在合乎道德倫理的情況下謹慎地使用人工智能。此外,還需要有效和可執(zhí)行的立法控制。
當然,無論人們采取什么新措施,重要的是要承認我們的生活越來越多地與自動機器和智能系統(tǒng)緊密“糾纏”在一起。這種“糾纏”在醫(yī)學研究和治療、交通系統(tǒng)、社會醫(yī)療保健和保護環(huán)境的努力等方面增進了人類的福祉。
但是在其他領域,這種“糾纏”會引發(fā)令人擔憂的前景。計算技術用于監(jiān)視和跟蹤人們的動作和運動狀況,追蹤人們的步伐、位置、健康、口味甚至人們的友誼。這一系列塑造了人們的行為并促使人們采取自我監(jiān)督的做法,無形中削弱了人們的自由,并破壞了人權的理念。
這就是關鍵所在:計算技術的雙重使用能力模糊了善意與惡意行為之間的界限。更重要的是,計算技術與個體公民、國家及其機構以及私營企業(yè)之間不平等的權力關系有著密切而深刻的關聯(lián)。如果脫離有效的國家與國際之間的相互制衡,它們將對人們的人權構成真正且令人擔憂的威脅。■