📖 ZKIZ Archives


限制“殺人機器人”首次政府會議終將召開 霍金曾警告

8月22日,據日本共同社報道,討論限制“殺人機器人武器”措施的首次政府專家會議預計於明年在日內瓦召開。這意味著為制定相關條約的討論將啟動。

報道稱,這種武器可以探知攻擊目標並自動挑選敵人進行殺傷。與急速發展的人工智能(AI)形成對比的是,關於對限制“殺人機器人”的討論一直沒有取得進展,非政府組織(NGO)之間要求禁止開發的運動在擴散。

美國國防部先進研究項目局投資開發的四足步行機器人“LS3”,圖片由Boston Dynamics提供。(來源:共同社)

國際人權組織:或許數十年後“殺人機器人”就將被開發出來

日媒指出,現階段殺人機器人被認為尚不存在,沒有國家在公開場合表示對該類機器人的開發有興趣。但是如果投入實戰之中,可以期望減少本國士兵的犧牲。還有觀點認為“如果安裝有基於國際法的系統程序,將不會進行非人道的殺傷。”

不過,實際問題錯綜複雜。比如機器是會發生故障的。如果被恐怖分子獲得的話,其危險性不可估量。而且因為無需顧及士兵的性命,開戰的門檻降低。誰來負責法律上的責任。此外還面臨將人類的生死問題委托給機器是否合適等倫理問題。

國際人權組織人權觀察(HRW)分析認為包括美國在內至少有6個國家具備開發能力。HRW警告稱:“並非數十年後,而是數年後就有可能被開發出來。”

關於殺人機器人,特定常規武器公約(CCW)締約國會議從2013年起舉行了數次非正式專家會議。今年12月份舉辦的會議將正式決定召開各國政府專家出席的官方會議。

不過CCW相關人士指出,因在如何定義“殺人機器人”等眾多問題存在爭議,限制條約的草案不可能短時間內制訂出來。認為“期待討論取得進展是過急的想法。”

據悉,HRW和日本的“幫助難民會議”等超過20個國家的NGO和市民團體合作的“反對殺人機器人運動”,認為一旦被開發出來則難以限制,所以要求“先行禁止”。

霍金等千名專家曾聯名抵制“殺人機器人”

去年,也有來自全球各國1000多位科學家和機器人專家發表公開信,警告稱這種致命性全自動化武器將於數年內成為現實,而不是幾十年後。

這些科學家和專家包括世界著名物理學家史蒂芬-霍金、特斯拉公司CEO埃隆-馬斯克和蘋果聯合創始人斯蒂芬-沃茲尼克等。在公開信中,他們聲稱 ,如果任何軍事大國或組織致力於研發全自動化武器,那麽全球性武器軍備競賽將不可避免。如果任由這種趨勢的發展,全自動化武器將可能成為明天的AK-47。

該公開信警告說,繼火藥與核武器的發明之後,可以獨立確定和襲擊目標且不需人類進行任何幹預的武器系統的開發,將會帶來“第三次戰爭革命”。

它描繪了未來沖突的可怕情形,類似於系列電影《終結者》中的場景。

電影《終結者》中的殺人機器人

該信還說:“對於執行暗殺、破壞國家穩定、征服民眾或選擇性殺死特定民族等任務,自主式武器是理想選擇”。“因此,我們認為,人工智能軍備競賽對人類而言是無益的。人工智能可以讓戰場變得對人類——尤其平民——而言更安全的方式有許多種,不用創造新的殺人工具。”

PermaLink: https://articles.zkiz.com/?id=211568

Next Page

ZKIZ Archives @ 2019