國際

國際要聞

下一篇

歐盟推AI道德指引 防極權劣企濫用 提7關鍵要求 今發表詳情

【明報專訊】歐盟委員會昨宣布人工智能(AI)道德指引,成為世界表率。歐盟委員會昨表示,研究製作AI的公司必須依據新訂守則建立問責機制,務使有關技術「值得信賴」,以防範專制政權、不良公司濫用。草擬準則的專家團成員今天將在布魯塞爾發表相關詳情。

歐盟委員會周一表示守則含7項關鍵要求:

1. 人類能動性及監察:支持人類能動性及基本權利,而非減少、限制或誤導人類自主權;

2. 穩健及安全:值得信賴的AI演算法必須安全、可靠及穩健,足以應付AI系統生命周期各階段出現的錯誤;

3. 私隱及數據管理:民眾應可完全控制自己的數據,而數據不可用來傷害或歧視他們;

4. 透明度:應確保AI系統可被追溯;

5. 多元、不歧視及一視同仁:AI系統應顧及人類各種能力、技能和要求;

6. 社會及環境福祉:AI系統應該用於加強正面的社會改革、提高可持續性和生態責任;

7. 問責:應建立機制以確保AI系統及其所致後果可被追究責任。

稱雙贏策略有利競爭

歐盟「單一數碼市場」副主席安西普(Andrus Ansip)說:「AI的道德面向並非奢侈品或附加項目。唯有增加信任,我們的社會才能完全受惠於科技。」他又表示,道德AI是「雙贏策略」,令歐洲有競爭優勢。

歐盟的指引正值全球對AI監管展開討論。歐盟稱,AI對社會有深遠影響,既可供檢測欺詐、網絡安全威脅,也可以改善醫療保健、管理金融風險、應對氣候變化等等。不過應用上也有可能有侵犯私隱、或AI本身有偏見等問題。論者更擔心,極權國家和一些企業亦能賴以從事不道德行為。AI道德監管成為熱門話題,例如什麼情况或應否要求相關開發公司把道德考慮置於商業利益之先;而規管又該去到什麼程度以避免扼殺創新發展。

不過,這些問題並不容易處理。Google上周四(4日)才宣布解散僅成立9天、旨在為AI發展提供道德建議的顧問委員會,事緣該委員會成員包括反性小眾權利及反移民的右翼智庫主席,以及曾參與軍方項目的無人機公司高層,惹來爭議,Google員工更發起聯署反對。《金融時報》指出,事件反映隨着政治趨兩極化,決定誰可對AI發展有發言權也變得複雜。

52專家助草擬 明年初試行

歐盟去年夏天得到來自學術界、工業團體,以及包括Google、德國軟件公司SAP、西班牙桑坦德銀行(Santander)、德國拜耳等公司共52名專家協助草擬這份倡議守則。歐盟委員會明年初將推出先導計劃,有興趣的企業、團體可以於今年6月簽署參加;專家將檢視試驗結果和反應,再交歐盟委員會衡量後續步驟。歐盟最終希望就「以人類為中心的AI」建立國際共識。

IBM歐洲主席耶特爾(Martin Jetter)稱,今次指引「為推動人工智能的道德和責任制立了全球標準」。

(路透社/法新社)

相關字詞﹕監管 歐盟委員會 人工智能

上 / 下一篇新聞