觀點

黃偉豪

黃偉豪:香港擁抱AI前 先要認清它的真能耐與假神話

【明報文章】今年財政預算案預留10億元設立人工智能(AI)研發院,大力推動本港AI研究和發展。而在過去10年,「人工智能」這個詞彷彿成為科技界最閃耀招牌。從企業推廣、政府政策到媒體報道,無不爭相標榜自家產品或服務與「AI」有關。AI已不僅是一項技術,更成為一種象徵、一種令投資者和消費者信服的神話。然而這個神話背後,卻潛藏難以忽視的風險與誤導。

美國普林斯頓大學電腦科學教授Arvind Narayanan在其著作《AI蛇油》(AI Snake Oil;註)中直言,當前市面許多打着AI旗號的應用,其實是現代科技版的「蛇油」——看似先進,實則無效甚至有害。他指出我們正處於一個「AI蛇油氾濫」時代,「AI就是尚未被完成的任何事物(AI is whatever has not been done yet)」,不僅科技產品本身未能兌現承諾,更在社會政策與公眾觀念上造成錯誤引導。

AI的3個應用類別

Narayanan將當前的AI應用分為三大類別:感知任務(perception)、判斷任務(automating judgment)、社會預測任務(predicting social outcomes)。這3種類型之間的分野,不僅關乎技術準確度,更關乎我們應否允許這些技術進入關鍵的社會決策領域。

在感知任務方面,AI的表現確實令人驚艷:語音辨識、影像分類、臉部識別、語音轉文字與醫學影像診斷等領域,AI已在多數情况下達到甚至超越人類專家水平。這些任務之所以適合AI處理,是因為其具備明確的「真實答案」,即便是巨量資料,亦有標準可循。例如兩張臉是否屬同一人、一句話是什麼語意,這些問題在資料充足下,AI能夠有效找出模式,並準確識別。

然而當AI被應用於判斷任務時,情况便變得複雜。偵測垃圾郵件、推薦內容、辨識仇恨言論、監測版權侵權等,皆涉及價值判斷與社會共識。於這些領域,所謂「正確答案」往往是模糊的,甚至是主觀的。AI可以不斷學習人類的偏好與行為模式,惟它無法理解人類道德與文化背景。這意味着其「判斷」往往只是對過去資料的模仿,而非真正的理解與創造。

而最令人擔憂的正是第三類——社會預測任務。Narayanan直言,這些應用大多屬現代科技中的「蛇油產品」,因為它們假設AI可以預測人類的未來行為,卻忽略了人類行為的複雜性與變異性。他舉出多個實例,揭示這些系統的荒謬與危害。其中一個例子是用於招聘的「AI面試評估」系統。有公司聲稱只需求職者提供一段30秒影片,系統便能夠根據語調、面部表情與肢體語言,判斷其是否適合某職位。這些系統甚至不分析求職者說了什麼,而只看「表現方式」。乍看之下似乎充滿科技感,但實際上完全缺乏科學根據。Narayanan批評這些產品根本是「複雜的隨機數產生器」,看似準確,實則毫無意義。

人類行為非純粹數據可預測

更令人詫異的,是「脆弱家庭研究」(fragile families study)的一個大型研究,由457名社會學與數據科學家參與,研究者試圖利用1.3萬個變數來預測青少年的社會行為與未來表現。這是一個典型的AI預測任務,其目標是找出家庭背景資訊與未來結果之間的關聯。結果顯示,即使擁有如此龐大資料與全球頂尖的AI團隊,系統的預測準確度仍極低,與隨機猜測相差無幾。

這個結果令人震驚,卻也發人深省。這些預測之所以失敗,並非因為技術不夠成熟,而是因為目標本身就不具可預測性。人類行為深受文化、情境與自由意志影響,並非純粹的數據可解。Narayanan更指出,這些系統的錯誤,往往不僅來自技術本身,而是來自數據的偏見。以美國的再犯風險預測工具COMPAS為例,它聲稱可透過137個變數去預測囚犯的再犯機率。然而研究顯示,只用「年齡」與「前科次數」兩個變數所做的簡單邏輯迴歸模型,其準確度甚至更高。更重要的是,COMPAS預測的是「再被逮捕」機率,而非真正的「再犯」。由於警察在不同社區的執法標準不同,這其實是預測「警方偏見」而非犯罪行為本身。

這些例子令我們不得不重新思考:即使AI在某些任務上表現出色,我們是否真的應將其用於如此重要的社會決策?我們是否願意接受一個無法解釋其判斷的黑箱系統,來決定誰可以保釋、誰可以入境、誰可以獲錄用?

此外,AI的普及也導致一種錯誤的社會預期。Narayanan指出,根據研究,美國公眾普遍相信「10年內所有工作都會被AI取代」;惟實際上,AI專家對「通用AI」的出現時間預估為50年以上。這種誇張的預期,會使政策制定者與企業誤判形勢,將資源投入錯誤方向,忽略了真正需要改革的教育、社會保障與制度設計等領域。

AI不是萬能藥

Narayanan的觀點值得我們深思,特別是在香港這個急速擁抱科技創新的城市。若我們未能清楚理解AI的真正能力與限制,便可能在無形中將公共權力讓渡予不透明、不負責的演算法,使社會失去應有的理性與公平。

在香港,我們亦應對這股AI浪潮保持警惕。政府正積極推動智慧城市、AI教育與創科發展,但我們必須問的不是「能不能用AI」,而是「是否應該用AI」。在招聘、治安、社福等敏感領域,我們更應堅持公開、透明與問責的原則,而非盲從科技潮流。

AI並非萬能靈藥。我們必須清楚AI的能與不能,及辨別真偽的方法。它在某些任務上確實大放異彩,如語音辨識與醫療影像;惟在預測人類社會行為方面,仍屬幻想多於事實。倘我們將社會決策交由這些「蛇油技術」主導,不僅無法提升效率,更可能加深歧視、削弱公義,甚至危及民主制度的根基。

於這個科技快速發展的時代,保持一顆理性、懷疑與關懷的心,才是我們應對AI最重要的智慧。

註:Narayanan, A. & Kapoor, S. (2024). AI Snake Oil: What Artificial Intelligence Can Do, What It Can't, and How to Tell the Difference. Princeton University Press.

作者是美國史丹福大學行為科學高等研究中心院士

(本網發表的時事文章若提出批評,旨在指出相關制度、政策或措施存在錯誤或缺點,目的是促使矯正或消除這些錯誤或缺點,循合法途徑予以改善,絕無意圖煽動他人對政府或其他社群產生憎恨、不滿或敵意)

[黃偉豪]

上 / 下一篇新聞