📖 ZKIZ Archives


當安全性失控時 自駕車系統要會「自殺」

2016-08-08  TCW

七月底,美國公路局發布報告:因為自駕系統誤判,一輛特斯拉(Tesla)電動車在自動駕駛狀態中失控衝撞卡車,車主身亡。調查員保守指出,超速是可能原因之一,但應該還有其他因素,正式報告得等一年後才揭曉。

這是今年自駕車熱潮引爆以來第一起系統致死事故。不過,特斯拉與監管單位口徑一致:單一事故非但不會阻礙科技進步,反而彰顯機器學習、分析數據的急迫性;更重要的是,當突如其來的危險發生,機器應具備最大限度減少傷亡為優先的不可抗指令。換言之,在極端情況下,它要主動「自廢武功」。

安全,無論是人身或心理層面,確實是未來車的智能化這一環頭號罩門,也是它在商業化之前建立信任基礎的關鍵要素,但現實是,回顧數位化革命歷程,沒有所謂固若金湯的安全系統。可預見的未來是,機器出包、甚至殺人仍將時有所聞,相關爭議也將日益白熱化。

現階段來看,未來車在四年間必須打通以下關卡:

技術面,當機、斷線如何救?

一、智慧技術。嚴格來說,高階車款搭載自駕系統上路已行之數年,利用雷達和攝影鏡頭等感測器偵察四周環境,結合車載電腦聯繫車體、回饋資訊,計算出後續控制策略,再發布指令導引汽車完成最終操作,這套控制系統據稱已精準到以毫秒判別,基本已無大問題。

挑戰在於,汽車內置電腦突然當機,蒐集、共用和分析資料所倚賴的車聯網基礎建設因故斷線,以及複雜的智慧系統在特殊和極端環境下運轉的穩定性等,都需要長時間校正測試與除錯。

二、網路安全。這一點與上述息息相關,尤其是當車體處於完全自駕模武時,十之八九,乘客就是全權交給主機代管。但同樣的,若想建立起這等前所未有的親密關係,豐田副總裁雷洛伊(Didier Leroy)認為:「關鍵挑戰在於,知道如何確保顧客的數據資料。」

環顧業界,多半仍採舊武的防堵做法,唯特斯拉與通用另設漏洞懸賞計畫,號召白帽(white hat)駭客輪番攻擊、測試自家電腦系統,然後提出強化安全措施的建議。以特斯拉為例,每回報一個漏洞,賞金最高一萬美元,去年八月因此找到遠距遙控的資安瑕疵。

政策面,法規、保險跟不上

三、交通與環境。應現實世界複雜性而言,美國維吉尼亞理工大學運輸研究所總監漢諾斯基《RichardHanowski)認為,自駕車目前尚可模擬各種突變的天氣和路況情境,對於上路後可能出現的各種突發狀況,卻未能充分準備。

就以今年二月Google Car自駕車意外為例,系統先是為了閃避路障偏離車道,稍後在切回原徑的過程中誤判後方巴士動向,結果時速三公里的Google Car左側車頭就被打算向右靠邊停站的巴士撞上了。Google坦承自駕車判斷不周,這起意外它得負起「部分」責任。

這類事件絕非個案。雖然科技專家堅稱,人工智慧終將失控、無法駕馭的指責是無的放矢,但《經濟學人》指出,道德風險仍在。

它舉牛津大學的思維實驗為例:一套人工智慧系統被指派盡全力蒐集迴紋針,由於它具有學習功能,在蒐集之餘會自我升級,想出更多新方法,甚至是違抗一切阻止它達成目標的指令,最終「把整個地球變成迴紋針倉庫」。

實驗結果看起來很愚蠢,但誰能說它執行命令有錯?實驗主持人波士朗(Nick Bostrom)指出,人工智慧不具備行為和心理動機,雖然不會出現人類常犯的錯誤和偏差,但一樣會犯下其他錯誤,像是執迷於蒐集迴紋針。

遇到極端的偏執情境怎麼辦?《麻省理工學院科技評論》上有一篇文章解釋,為何自駕車設定「自殺」程武碼很重要:就算(自駕)比手駕更安全、更節能,但永遠不可能零事故。我們即將把主控權交給自駕車,此刻就得正視由此衍生的道德爭議。

四、政策與法律。目前沒有一國政府允許無人駕駛車行駛在公共道路上,原因不一而足,但優步和Lyfi已經把舊金山最大計程車行YellowCab推向破產,一旦自駕車大舉出籠,另一波失業潮很難避免,有可能是政府無意積極推廣的主因。

然而,鴕鳥心態解決不了問題,一旦無人駕駛車風潮擴散,道德及法律的兩難會快速浮現,政府應盡快制定事故問責、修改相應法規,以及必須的配套措施,因為交通法規後面,還牽涉金融保險業的精算計價體系,少了保險及法律的屏障及仲裁,引發的爭議會更多。

美國維吉尼亞州政府正試行一項七十英里的自動駕駛測試計畫,姑且不論成效如何,這是一個重要的開始。車輛本身只是未來汽車革新的第一步,如何處理這項科技帶來的整體衝擊,交通運輸生態系中的每一個成員,包括擁有駕照的你、我,都難逃改變。

PermaLink: https://articles.zkiz.com/?id=209648

Next Page

ZKIZ Archives @ 2019