AI道德誰來監管? 怕落後中國 美政府拒嚴管
1 :
GS(14)@2018-03-19 04:11:16【明報專訊】人工智能(AI)科技日新月異,但面對這種新科技,人類正陷於重大的矛盾,既擔心它會過於聰明而讓人類無法駕馭,終演變出科幻電影般的末日災難。與此同時,人類又憂慮AI不夠聰明,應用於自動駕駛、機械臂手術等情况時或會突然失靈,又或欠缺人類的靈活應變。上月初美股急挫拖累環球跌市,很可能由於程式交易已佔美股成交的多部分。交易機構使用的AI演算法相近,觸及某些條件便會同時大舉沽貨,釀成AI股災。
政府監管機構正有意對這種既聰明,又愚蠢的AI技術加以規範。不過科技企業正爭取在監管機構出手前,塑造AI的發展模式。IBM、英特爾(Intel)及代表業界的組織,正尋求建立行為守則及道德規範。然而,批評者認為,科技行業此舉將妨礙各級政府的外部監管,質疑科技企業應否自訂遊戲規則。
IBM英特爾尋求自設規範
總括來說,AI是指模仿智能行為的電腦,分析了大量數據後,計算出如何避免車禍,以至下次可能發生罪案的地點等。對於企業來說,這些AI演算法用途廣泛,可用於評估客戶的貸款風險、工作申請、中風概率等,進而設計出一些財政、醫療等方案,可說是生金蛋的寶庫。因此當紐約市去年8月要求科技企業發布從政府機關使用的演算法源代碼時,科技公司都有所遲疑,稱要保護專利。紐約市最終在12月通過了一個簡化版規範法,沒要求科技企業交出源代碼。
商業秘密作盾牌 監管機構拒門外
向美國國會提供有關AI建議的華盛頓大學法學教授Ryan Calo向《華爾街日報》稱,科技企業以商業秘密為名,令外界無法得知他們在做什麼。然而,這些AI演算法不一定有清楚的邏輯。倘某些AI程式一直拒絕向某個性別,或某個種族的人士提供貸款,那應否被視作歧視?監管機構是否有權審查這些為人類生活作出各種決定的AI演算法?如果算法不知道如何解釋自己的邏輯,那應怎麼辦?奧巴馬前政府曾試圖解決這些問題,由科學和技術政策辦公室發布了有關AI的道德影響白皮書。至特朗普政府上場後,該辦公室仍沒有領導人,員工數目亦由約130人降至45人左右。
規管過嚴 美政府恐削創新能力
特朗普政府如今希望商業帶領AI發展。科學和技術政策辦公室的官員Michael Kratsios稱,政府擔心全面的規管會限制創新,使美國競爭力下降。Kratsios稱,由於中國也在推進AI技術,卻沒有理會太多道德議題,美國政府不會尋求為AI建立廣泛的高層次指導方針,關鍵是創造一個框架,確保下一代偉大技術在美國誕生。
過去6個月,英特爾、IBM和總部位於首都華盛頓的信息技術行業委員會(成員包括facebook、蘋果和Google)等,發布了有關道德使用AI的原則。 微軟1月亦發布了一本關於AI及其社的作用的書籍。2016年,一些科技巨擘在三藩市成立了一個道德組織,名為人工智能伙伴貢獻人類與社會。其他同類組織還包括Open AI、AI Now研究所等。
歐盟已制AI演算法規定
這些組織建議,AI的規範包括要任何AI演算法能向消費者解釋其決策的邏輯。不過此舉相當複雜,因為公司往往無法解釋其被稱為「深度神經網絡」的AI系統如何得出答案。華盛頓大學去年一份報告稱,一種自行學習如何區分狼和赫斯基狗的演算法,似乎只是分析狼圖片上的地面積雪,對動物並沒有任何洞察力。民主、共和兩黨去年12月引入法案,以建立一個諮詢委員會,研究AI的潛在影響。歐盟已制定AI演算法的規定,並將於5月生效。
明報記者 黃展翹
[企業地球村]
來源:
http://www.mpfinance.com/fin/dai ... 3722&issue=20180318