【明報文章】當ChatGPT以人類語言重塑知識生產,當「腦機接口」模糊肉體與機器的界限,當區塊鏈技術重新定義信任機制,作為大數據、人工智能、區塊鏈等技術深度融合的產物,數智技術正以智能化數據處理和算法決策,重構社會運行範式;其顛覆性的力量,已觸及人類文明底層邏輯。從醫療診斷到司法決策,從城市管理到個人生活,算法與數據的觸角延伸至每個角落,將效率與風險同時推向新高度。
然而在技術狂飈突進的背後,「數智利維坦(Leviathan)」的陰影正悄然浮現。當算法壟斷話語權、數據侵蝕隱私、技術優勢固化階層差異時,如何避免「數字權力」異化為侵權工具?答案在於以「數字人權」為劍,馴化這頭技術巨獸。作為「數字時代」保障人類尊嚴、隱私權、知情權等基本權利的核心框架,數字人權既是制衡數字權力的利劍,也是構建人本主義「數字文明」的基石。
技術暴政:數字人權的結構危機
當下數智技術之進化已突破工具性的範疇,演變為重構社會權力關係的「技術利維坦」。不同於傳統權力結構的垂直控制,「技術利維坦」通過「數據捕獲-算法解析-平台支配」閉環式操作,形成了去中心化卻又無孔不入的權力網絡。比如,算法黑箱消解了權力運行的透明度,使數字權力的運行具隱蔽性;平台經濟模糊了公域與私域邊界,使數字權力無處不在而具有彌散性;機器學習通過數據的反饋循環固化偏見,使數字技術具有自我強化性。
數智技術的聚合效應,正製造前所未有的權利坍塌。在平等權領域,算法歧視正將社會結構矛盾轉化為技術性的壓迫。美國刑事司法系統使用的COMPAS風險評估算法,對黑人形成「算法歧視」,卻因「算法屬商業秘密」而逃避追責;亞馬遜招聘系統曾經因歷史數據中的性別偏見,自動降低女性求職者評分;Google廣告算法基於薪酬差異,向女性推送的高薪職位不足男性半數。
這些案例揭示了一個殘酷真相:當人類社會的歧視被編碼為算法規則,技術便成為固化不平等的「自動化壓迫工具」。更值得警惕的是,算法權力與資本邏輯合謀,正製造新型「數字鴻溝」。當少數數字企業手握定義「公平」的話語權時,老年人、殘障群體、經濟弱勢者等數字邊緣人群,正被排除在技術紅利外。他們的數字人權被稀釋,訴求在算法決策中被邊緣化,最終淪為「數字難民」。技術本應彌合群體差距,卻可能成為階層分化的加速器。
數智技術的「窺視之眼」已無孔不入,隱私權的崩塌更為複雜。智能手環記錄健康數據、攝像鏡頭捕捉面部表情、社交媒體分析情緒傾向……個人生活的每一刻都在被數字化、標籤化。更危險的是,這些碎片化信息經算法整合後,可能拼湊出遠超個體認知的「數字人格」。例如,匿名化的位置數據通過交叉比對,仍可精準鎖定個人身分;所謂「脫敏」的醫療信息,也可能被反向破解疾病隱私;雲計算架構下的數據跨平台流動,使個體對自身信息的控制權形同虛設。這不僅是隱私的消逝,更是人格完整性的解構。當算法能夠通過行為數據預測乃至塑造人的選擇時,自由意志已遭徹底瓦解。數字權力在悄無聲息地擴張,個體自主性卻不斷萎縮——我們讓渡隱私,卻未必換回安全。
以人為本:馴化「利維坦」的人權利器
破解「數智利維坦」困局,需超越傳統人權框架的認知範式。數字人權不應是傳統權利的簡單數字化映射,而是人權理論在智能時代的代際革新。其核心要義體現在三重維度:於主體維度,人權主體從「生物人」轉向「數字-生物複合主體」;於內容維度,人權內涵從防禦性的權利,拓展為涵蓋數據權、算法解釋權、數字身分權的「權利集束」;於價值維度,數字人權更為強調技術應用所引起的分配正義。這種範式轉換,要求我們以人的「數字化生存」重構人權哲學根基。
數智技術之所以引發人權風險,根本上是因為技術與人權之間的價值割裂。數智技術之目標是為實現特定任務的最優性能,但其不具有自主的倫理判斷和道德意識。這需要基於人權價值對數智技術的開發與應用,實行價值引導,將人權價值深度融入數智技術的治理,確立基於人權價值的治理原則,從而在確保技術潛在收益最大化的同時,最大限度地保護和尊重個體尊嚴及權利。具體而言,基於人權原則的數智技術治理,需把握三大平衡。
其一,在風險與創新間找支點。對於數智技術的治理,應當在人權風險發生之前介入,以風險治理為原則實行預防監管。這需要通過透明、系統和可以辯護的框架,來識別、評估、管理和應對可能影響人權目標之實現的不同風險。風險治理並非旨在達到零風險,而是尋找最佳的風險組合,適當接受較低風險,優先關注最高風險。在面對未來環境和技術發展結果的不確定性時,必須用科學方法評估技術風險,並在各種價值之間權衡,做出合乎比例的決策。
其二,在效率與公平間謀共識。數智技術的開發與應用,需堅持市場能動原則,通過市場實現技術資源的優化配置;同時,應通過政府監管實現資源公平分配。一方面,運用市場機制推動市場主體實行自我規制;通過平等競爭和用戶反饋,將各方需求和關切引入企業決策中,推動人權倫理嵌入數智技術系統。另一方面,通過政府監管,推動數字企業主動履行人權盡責,督促數字企業實行人權合規和行業自律,將法律內生化、前置化,於開發、部署和使用數智技術的過程中,積極採取措施,全面評估數智技術對人權的潛在影響,確保其業務活動符合人權法律框架和道德標準。
其三,在硬法與軟法間築合力。對數智技術的治理,要堅持柔性治理原則,統合硬法與軟法,構建技術倫理的落地機制和規範體系。這既需將人權倫理嵌入法律體系中,明確數智技術領域的法律責任、權利和義務;又需制訂軟法指南,向數字企業提供自律框架,明確數智技術治理的最佳實踐和倫理準則。
硬法與軟法的銜接,可透過明確軟法的應用場景,及通過執法機構對軟法的承認和解釋來實現,並通過專門的人權倫理機構來審查和監督硬法與軟法的協同推進。這樣可以適應數智技術的動態更新,確保治理框架保持對人權風險的敏感。
全球共治:數智技術治理未來可期
數智技術的治理,從來不是一國之責。當深度偽造視頻跨境傳播、跨國平台壟斷數據主權時,任何單一國家的監管都顯得力不從心。聯合國教科文組織出台《人工智能倫理建議書》,標誌着數智技術的全球治理框架初現雛形。中國作為技術大國,應主動參與全球治理,在「一帶一路」合作中推廣技術普惠方案,與發展中國家共享數字基礎設施,避免世界滑向「數字殖民」深淵。
實踐證明,人類歷經每一次技術革命和文明躍遷,始終都伴隨着「權力-權利」關係的重構。今天我們站在數智時代的門檻上,比任何時候都更需要清醒——技術的終極使命不是替代人類,而是令人活得更有尊嚴。以人權為尺、為技術立規,方能駕馭「數智利維坦」,開闢一個「人機共生」的光明未來。
作者是南開大學法學院教授、南開大學人權研究中心研究員
(本網發表的時事文章若提出批評,旨在指出相關制度、政策或措施存在錯誤或缺點,目的是促使矯正或消除這些錯誤或缺點,循合法途徑予以改善,絕無意圖煽動他人對政府或其他社群產生憎恨、不滿或敵意)