即時文摘

AI執法——電腦最終可取代人類?(文:黃偉豪) (09:00)

運輸署最近在中環及觀塘兩區試行「AI抄牌」系統,這標誌着AI(人工智能)執法的年代已慢慢在港展開。AI的權力愈大,人的影響力便變得愈小。AI掌管世界,是好是壞?分析又重回一個重心問題:電腦或AI最終是否可以取代人類智慧?

一個有趣的個人觀察是,對AI認識愈少的人,往往對AI能力的信心反而愈大;相反,在真正了解AI的專家社群內,愈來愈多肯定人類智慧的討論,更提出了「人為監督」(human-in-the-loop)和「人為主導」(human-in-command)等概念,不止重新發現人在AI發展及運作上的重要,在關鍵事情上,更確定了人的凌駕地位。

電腦科技走入巿民日常生活的例子愈來愈多和明顯,甚至已到達了避無可避的地步。就如香港不少餐廳已改用QR code(二維碼),讓客人親自上網點菜。雖然透過店員點菜的選項往往仍然存在,但由於QR code的原意是減省人手,人手少了,客人要店員點菜的話便要多等一會,無形中向不懂得使用或不想使用資訊科技的顧客,提高了服務使用成本或作出懲罰。由於社會上並非所有人均有快速的網絡連接或智能手機,及具有相同的使用科技能力,這些不同待遇可被視為「數碼歧視」;更何况,達不到以上條件的人往往是收入及教育水平較低,或上了年紀的弱勢一群。

AI執法的三大問題

當私人公司於商業業務使用電腦及資訊科技,都可引發不少問題的時候,可想而知,用AI執法所挑起的爭議只會更大。只是初步分析下,亦可發現三大問題,需慎重考慮。

第一,很明顯,是政府所提供的服務和待遇的強制性,而嚴格來說,如抄牌等執法行為,更非服務而是懲罰。跟商業貨品或服務不同,面對政府,市民不可選擇服務提供者,而且在大部分情况下,皆不可選擇拒絕服務。在執法的情境下,接受「服務」更是強制性,例如拒絕警方抄牌或逃走等行為,只會招來更多「服務」——更大的懲罰。

由於政府的「服務」,特別是執法屬強制性,更有可能會對巿民帶來財物上的損失(例如罰款)或權利上的損害(例如因監禁而失去自由),用AI執法,便必須保證AI不會出錯,起碼水平不會低於之前的只用真人執法。

執法視乎情境  以智慧判斷方能合情合理

第二個問題是如何達到執法的合理性。要巿民守法,法律必先要合理。一個隨處可見的活生生例子,便是出入商場使用「安心出行」的要求。由於疫情已放緩,及連衛生署自己也在早前承認,由於人手及種種理由,以「安心出行」追蹤患者的緊密接觸者的功能已減弱,使巿民認為進出商場要使用「安心出行」變得多此一舉,遵守規定的人隨即大減。如果一個政府經常執行一些不合理的法律,長遠來說,政府的合法性亦會受損。

執法表面看來是簡單、清晰和直接,但在實際操作上,往往要視乎情境(context),並透過智慧去判斷,才能做到合情合理。舉例來說,若一個人打破別人房屋的窗口進入屋內,並把屋內小孩自行帶走,必定是嚴重的刑事罪行;但倘若當時的情况是正發生火警,這巿民只是因情况危急而衝入屋內救人,結果便180度逆轉,該市民立即由罪犯變成英雄。這便是情境對判斷執法行為的重要性。

再以一個與「AI抄牌」同樣是交通問題的交通燈過馬路情况來舉例。行人在紅燈時過馬路是違法,但若路上沒有任何車輛,而行人只在紅燈面前呆立,是十分浪費社會資源,既浪費了行人時間,也浪費了無車輛或行人使用的路面空間。在智慧城市(smart city)年代,開發智慧交通燈的理由便是為了應付以上情况,使在無行人的時間中,交通燈可長期為車輛開綠燈;相反地,有行人時便轉回行人綠燈,靈活變通,製造雙贏。而在未有AI的年代,視乎實際情境來執法是較合理和常見的做法。

結合以上第一和第二點,若用AI執法的話,必須既確保AI系統能力精準,但又需靈活因應情景而保持執法合理性。這便帶出第三個問題:AI真的有能力同時做到以上兩點嗎?

目前的AI研究可分成「弱AI」(weak AI)和「強AI」(strong AI)兩方面。「弱AI」是指透過電腦運算,包括現時極流行的「機器學習」(machine learning),解決一些可以透過邏輯、數學、數據及統計等來理解的問題。「強AI」的研究野心則大很多,就是使電腦擁有媲美人類的智慧,懂得理解非數學可以徹底掌握,又可因應情境而變化如感情、文化和價值等的隱性知識(tacit knowledge)。

在研究成果上,「弱AI」可以說是進步神速、一日千里,因為它正正在大數據年代發揮了電腦的強項。相反,「強AI」的研究進度卻未如人意,這一點由專門研究「強AI」的公司DeepMind歷年來都是蝕多過賺的財務狀况得到反映。而它開發的人工智能「AlphaGo」雖然在圍棋棋盤上與人類對弈戰無不勝,但其他應用範圍有限,未能達到「強AI」的期望。

須防盲目執法惹民怨

有研究更認為,要發展「強AI」根本是緣木求魚、一個永遠不能達成的幻想。本身是物理學家和哲學家的Fjelland(註)簡單直接和斬釘截鐵地指出,因為沒有感情、文化及血肉之軀等因素,而只有數學的零一運算邏輯,電腦根本不屬於人類的世界(not in the world),所以根本不能用人的方式來思想和運作;因此,新的研究方向已逐漸轉向用AI來「加強而非取代人類智慧」(to augment human intelligence, not to replace it)。

回到「AI執法」的問題上,政府也應就着「人為監督」和「人為主導」等概念,解答在執法過程中,人的角色的問題,以防AI盲目、機械地執法,引發民怨。

註:Fjelland, R. (2020). Why general artificial intelligence will not be realized. Humanities and Social Sciences Communications, 7(10).

作者是中文大學數據科學與政策研究課程主任

(本網發表的時事文章若提出批評,旨在指出相關制度、政策或措施存在錯誤或缺點,目的是促使矯正或消除這些錯誤或缺點,循合法途徑予以改善,絕無意圖煽動他人對政府或其他社群產生憎恨、不滿或敵意)

相關字詞﹕編輯推介 文摘

上 / 下一篇新聞