觀點

陳帆川

陳帆川:人們為何寧信AI也不信律師?

【明報文章】如果有得揀,你會就法律問題請教律師,還是AI(人工智能)?相信很多人都會選擇前者,因為真人比電腦可靠。但一項研究發現原來很多人寧願信AI,為什麼?

英國修咸頓大學幾名學者最近發表一篇論文,題為〈普羅大眾能區分大型語言模型與律師,但仍更喜歡模型給出的建議〉(註)。團隊向288人做了3項實驗,首先向受訪者分別呈上由AI及律師撰寫的法律意見,但不告知哪個出自AI、哪個出自真人。結果發現,較多人喜歡AI生成的意見。

第二項實驗的結果最令人意外。團隊如實告訴受訪者,哪個意見出自AI或律師,結果發現,相信AI與律師的比例約一半半。團隊分析指,AI受歡迎的其中一個原因,是用語較複雜;由律師撰寫的意見則用字簡單,而且答案較長。

最後一項實驗,是叫受訪者嘗試分辨由AI或律師給出的答案,再為受訪者的準繩度打分。準確度跟隨機估算無異的話,分數是0.5,全數估中是1分。受訪者最終平均分為0.59,優於隨機估算,但仍屬偏低,代表一般人分辨AI答案的能力不高。

團隊警告說,人們聽取AI法律意見,有機會伴隨巨大風險。一旦誤信「AI幻覺」產生的錯誤信息,可能會下錯了改變一生的決定,呼籲企業慎用AI、大眾需學懂分辨AI答案。

另外,英國公開大學去年一項研究,盤點AI生成法律答案的五大問題:第一是過度引用美國法律,忽略其他普通法地區;第二是誤用過期法律;第三是解釋錯誤,尤其在處理家事法和勞工法時經常出錯;第四是答案籠統,不夠精準深入;第五是付費模型的答案質素高於免費模型,加劇不公。

AI的最大問題:無人問責

類似研究如雨後春筍般出現,不過皆存在一些共同盲點。以上文提及的第一項研究為例,用戶喜歡AI用字複雜,惟我們日常使用AI時,通常會着AI調整用字,甚至可以叫AI將答案解釋得連5歲小孩都聽得懂。但大部分研究為求中立,只會向AI提問預先設定的問題,不會做任何調整。

另外,語言模型日新月異,上述第二項研究進行時,最先進的付費模型是ChatGPT-4;如今未夠一年,推理模型已成主流,免費版本模型的解難能力也遠超ChatGPT-4。AI當日答錯的問題,今天未必答得比律師差。

AI的準確度只會一直提高,直至失誤率跟人類不相伯仲。但它的最大問題是無人問責——律師給錯意見可以釘牌,惟AI給錯意見的話,科技公司僅重申「AI可能出錯,請斟酌使用」。這才是AI應用的最大風險。

註:Schneiders, E., et al. (2025). Objection Overruled! Lay People can Distinguish Large Language Models from Lawyers, but still Favour Advice from an LLM.

作者是新聞工作者、文化評論人

(本網發表的時事文章若提出批評,旨在指出相關制度、政策或措施存在錯誤或缺點,目的是促使矯正或消除這些錯誤或缺點,循合法途徑予以改善,絕無意圖煽動他人對政府或其他社群產生憎恨、不滿或敵意)

[陳帆川]

上 / 下一篇新聞