【明報文章】美國「Signal門」泄密事件仍在發酵。當傳媒持續關注事件引發的政壇動盪和美歐齟齬時,已經有不少人開始反思其背後的科技倫理等深層次問題。
據時政雜誌《大西洋》月刊總編輯戈德堡披露,在美國3月對胡塞武裝組織發動軍事打擊之前,他被美國白宮國家安全顧問華爾茲誤拉到一個名為「胡塞PC小組」的Signal聊天群組。該小組由18名美國高級官員組成,包括副總統萬斯、國務卿魯比奧、防長海格塞斯、中情局長拉特克利夫等。聊天內容不僅涉及美軍空襲胡塞武裝的計劃,還包括萬斯「討厭再次幫歐洲解困」等言論。
事件曝光後,筆者一邊哂笑如華爾茲這般人物(或許是其助理)也會犯「手滑」這樣的手機操作低級錯誤,一邊也跟大多數人一樣質疑:為何美國高官要在Signal討論如此機密事宜,而不是在白宮戰情室或使用專門的敏感信息隔離設施(SCIF)?
其實,Signal由於其端到端加密技術,近年一直受到政界、傳媒界青睞。所謂「端到端加密」,就是指Signal上所有通訊內容都只有發送方和接收方能夠解讀,中間傳輸的服務器、營運商乃至Signal公司自己都看不到,而且還可以設置「閱後即焚」功能,且所有代碼開源,全球安全專家或黑客都可以檢查其是否存在漏洞。
這種卓越的隱私保護能力,使記者、政治人物等諸多處於敏感位置的人使用Signal來保護自己的通訊安全。不僅馬斯克、斯諾登(Edward Snowden)都曾公開推崇,美國國家情報總監加巴德在上周國會聽證會也表示,Signal被預先安裝在政府設備上。因此從這個角度來看,與其嘲笑特朗普政府是「草台班子」,不如反思在這樣一個數字化、智能化的科技革命時代,人們對便捷性的追求、對科技的信任與倚仗,是否已經超越了對數據安全的重視、對科技應用與科學倫理之間的平衡。
過度依賴AI 或削弱人類判斷力
尤其近幾年生成式人工智能(AI)研發呈爆炸式增長,愈來愈多政府部門、公共機構接入ChatGPT、DeepSeek等AI大模型。誠然,AI正深刻賦能政府決策與公共治理體系革新,通過海量數據處理與智能建模,可顯著縮短決策周期,令資源配置更加高效,並且還能使政策制訂突破人類的經驗局限,提升其前瞻性與精準度。
然而過度依賴AI,可能削弱對複雜問題的人類判斷,尤其在應對像「電車難題」(trolley problem)這樣需要政治智慧與價值權衡的領域時,更顯被動。更何况,目前的AI軟件尚普遍缺乏辨識信息真偽的能力,甚至為迎合用戶而隨時改變立場和答案,乃至編造虛假內容。筆者近期就不止一次遭遇AI軟件「造假」,其提供的資訊幾乎以假亂真,以致筆者花費更多時間和精力來驗證,更不敢相信若以之為依據得出的結論將是何等謬誤。
須釐清AI發展與治理的平衡
「Signal門」不僅是一場美國政壇風暴,更再次揭示「數字時代」對公共決策的全面重塑,提醒人們必須以時不我待的緊迫感,盡快釐清AI發展與治理之間的平衡。譬如,被視為最完善的「阿西洛馬AI原則」(Asilomar AI principles),早於2017年就已被提出並簽署,惟其落地實踐至今仍相當有限。最新體現就是在今年2月巴黎AI行動峰會上,美英拒絕簽署大部分與會國家和國際組織都同意的AI全球聲明。
香港目前也積極推動AI發展,今年政府財政預算案還宣布成立香港人工智能研發院。既然「深化國際交往合作」是中央賦予香港的新定位,不妨利用自身融會東西的優勢,促成AI治理原則盡快落地,成為國際通用的具體規則、規制、管理、標準等。這既是為全球AI治理貢獻「香港智慧」,也能為國家參與「數字時代」規則競爭提供戰略支點。
作者是時事評論員
(本網發表的時事文章若提出批評,旨在指出相關制度、政策或措施存在錯誤或缺點,目的是促使矯正或消除這些錯誤或缺點,循合法途徑予以改善,絕無意圖煽動他人對政府或其他社群產生憎恨、不滿或敵意)