國際

國際新聞

下一篇
上一篇

科技「門外漢」 政府修例制衡成難題

【明報專訊】AI應用涉及大量道德議題,近年不少涉足AI的科網巨企紛紛建立組織研究AI道德議題或制定相關規範,唯有專家批評這些行動只是裝點門面,業界並未真正處理相關問題,而政府由於未能掌握相關知識,即使有意規管亦無從下手。

業界「自我規範」避政府規管

是否應容許運用AI操控無人機等致命武器,以至人臉辨識系統會否變相針對有色人種、導致錯誤執法等問題,均是圍繞AI應用的道德爭議。除了Google設立道德顧問委員會外,微軟亦已在去年設立道德委員會,而facebook今年初與德國慕尼克工業大學合作,開設AI道德研究中心。不過紐約大學AI Now研究所去年發表報告,指出儘管科技業界爭相建立AI道德規範,但並無落實機制,亦缺乏證據顯示有何實質效果。

「劍橋分析」醜聞揭議員乏知識

維也納經濟大學科技與人權專家瓦格納(Ben Wagner)形容科技業界正進行「道德洗白」,一旦有人揭發科技公司的AI損及少數族群或侵害人權,科技業界便可搬出這些規範,以示對相關問題有所作為,旨在避免政府規管,但由於規範並無約束力,無法帶來任何政策改變。

專研負責任AI的數據專家喬杜里(Rumman Chowdhury)指出,科技企業深信自我監管便已足夠,但這些企業其實沒有任何足可匹敵的力量制衡。雖然許多專家提出由政府管制,但如何填補現有法例不足卻成難題。喬杜里舉例說,去年揭發「劍橋分析」挪用facebook用戶個人資料醜聞後,希望立法監管的國會議員在聽證會上展示出他們對科技並不了解,令掌握知識的科技企業或能任意塑造規管方向。

(The Verge)

相關字詞﹕科技企業 道德 規管 人工智能

上 / 下一篇新聞