2019-07-26
【私隱疑雲】隨時收集行人路面資料?推行無人車真的「安全」嗎?
近日因智慧燈柱而引起的私隱疑雲,迫使特區政府暫緩啟動燈柱部分功能。事實上,作為未來智慧城市主要交通工具的無人自駕車,濫用的潛在風險比智慧燈柱更大。無人車在城市內穿梭往返,一旦裝上高解像的攝影機,再設置各式感測器,頓時變身成無所不在的移動間諜裝置。
目前大部分無人車均會安裝攝影機和感測器,原意是用作偵測路面情況,但亦有機會拍攝到路上行人的樣子。圖中為無人車初創Drive.ai的測試車輛。(圖片來源:Drive.ai官網)
無人車既可拍攝車廂內乘客的相片,又可捕捉街道上行人的影像,只要將之輸入至人臉辨識系統,便可確認有關人士的身份,告知政府發現了哪些人。可能有人會說,不要凡事都以陰謀論去解讀,那麼比較沒那麼邪惡、較為「正路」的情況是,無人車記錄乘客的衣著、出行模式或其他生活習慣,然後把這些數據交給企業的營銷部門,進行消費者行為分析與流行趨勢預測。
事實上,無論是行人抑或乘客,均享有私隱受保護的權利。每個無人車用戶都應該知道數據怎麼蒐集,以及誰能夠取得數據。如果編寫無人車軟件的公司擬將用戶數據賣給第三方,用戶應該有權決定是否希望個人資料被用作其他用途。
無人車運作還會牽涉到資訊安全的問題。所有軟件系統都有潛在的安全漏洞,小至功能失靈,大至黑客入侵,均會造成一定程度的傷害。偽造GPS數據、篡改數碼地圖可能會成為新類型的黑客攻擊手段。同時,無人車不斷將車輛所在地數據傳送給遠端的交通系統進行路線規劃與分析,亦有機會成為黑客入侵的新目標,引發交通事故。
除此以外,有論者指無人車運作背後還潛藏著自動駕駛的道德問題。假如在車禍即將發生的一刻,左方是一位老人家,右方是 5 個小孩子,無人車的自動駕駛系統應該如何抉擇?研發人員應否將這種道德判斷納入自駕系統開發的考量呢?這個問題正是源於道德哲學中的「電車問題(Trolley Problem)」。
「電車問題」是英國哲學家菲力帕·芙特(Philippa Foot)於1967年提出的一個道德難題:你看到一列煞車系統壞了的電車,即將撞上前方軌道上的5個人,旁邊的備用軌道上只有1個人。假設你手邊有一個按鍵,按下後電車便會駛進備用軌道,只撞死1個人;若然你甚麼都不做,就會有5個人被撞死。請問你是按還是不按呢?
隨著無人車的出現,「電車問題」這個道德哲學中的經典難題再度備受關注。(圖片來源:維基百科)
不過理論歸理論,一旦真的有意外發生,你便會發現這個假設性問題其實毫無意義:在馬上要出車禍的一刹那,人們只會依靠本能來作出反應,大部分司機根本上沒時間思考「該撞哪邊」這個道德哲學難題。人類也辦不到的事情,為甚麼我們會要求自駕系統做得到?大家對人類駕駛和自動駕駛的態度是否存在著雙重標準呢?
事實上,自駕系統不會酒駕、不會打瞌睡、更不會恍神,在正常情況下應該不會出車禍;如果發生車禍,很大機會是系統故障──你豈可要求一輛故障中的無人車,在出車禍時對「電車問題」作出判斷;正如你也不可能要求一部電腦在故障期間預測其當機時間吧!由是之故,自動駕駛的道德問題其實只有一個:無人車應否盡快普及。
根據美國國家公路運輸安全署的調查, 逾9成車禍的肇事成因可能是人為失誤。在美國州際公路上不時有大型貨車出車禍,其中有很大部分都是貨車司機打瞌睡、或是嚴重睡眠不足所致。但無人車便沒有這個問題了!
不過,最近日本發生了一宗無人駕駛列車意外事故,卻令當地業界反思自動駕駛的安全問題。今年6月1日晚上8點15分,橫濱市磯子區新杉田站一列金澤海濱線的無人駕駛列車,在準備出發時突然逆向行駛,以時速20公里撞上軌道上的止衝檔,結果造成14名乘客受傷。
金澤海濱線列車已採用自動駕駛模式達25年,但因早前在新杉田站發生的列車意外事故,現已轉換為人手駕駛。(圖片來源:維基百科)
調查後發現,肇事列車控制系統與動力系統之間的連接線路出現斷裂,致使動力系統無法接收控制系統下達的反向行駛指令,因而誤以為仍要繼續往前駛,直至撞上止衝檔為止。至於連接線路為何斷裂,迄今仍原因不明。為免類似事故再發生,金澤海濱線的營運商遂暫時將列車運作由自動駕駛切換為手動駕駛。
這起無人列車意外事故,讓日本各界開始檢討自動駕駛的盲點。目前日本已有11條採用無人列車的電車路線,甚至著名的JR山手線亦開始進行自動駕駛測試。因此,怎樣預防無人列車發生機械故障,將是日本往後在智慧交通布局上的重要課題。
東京JR山手線235系列車已開始進行自動駕駛的測試。(圖片來源:維基百科)
第九屆「傳媒轉型大獎」請投etnet經濟通一票! ► 立即行動