觀點

方可成

方可成:《紐時》訴OpenAI——私利還是公義?

【明報文章】去年底,《紐約時報》對人工智能(AI)公司OpenAI和科技巨頭微軟發起訴訟,認為它們在未經授權的情况下,使用了《紐時》數百萬篇文章去訓練AI。訴訟中沒有明確提出經濟賠償的數額,但認為OpenAI和微軟給《紐時》造成數十億美元的損害,還要求它們銷毁使用《紐時》版權材料訓練的所有AI模型。

對於這樁訴訟,有人認為是天經地義的維權,也有人認為是阻礙科技創新的自私行為。但更有可能的是,它只是一種有利於談判的籌碼。

「破壞式創新」的傲慢

直到ChatGPT在全世界流行一段時間之後,許多媒體和作家才意識到:自己的作品被用來訓練AI大語言模型了。有作家向ChatGPT提問自己小說當中的具體情節,發現AI竟然可如數家珍,表明機器一定是學習過小說全文,而作家本人和出版社都從未授權,更沒有收到報酬。

此次《紐時》的訴訟中更是提出:在一定條件下,AI竟然可以生成近乎直接複製自《紐時》的文章。那就更是構成直接的利益衝突了——若AI能夠生成跟《紐時》相似甚至相同的內容,那麼就可以被用於搶走《紐時》的讀者。而《紐時》刊發的文章往往都是投入巨大資源去採寫的,倘流量和商業利益被AI威脅,那麼企業的可持續經營就要打上一個問號。

同樣的道理,能寫詩畫畫的AI可能搶走作家和藝術家的工作。對創作者而言,既未被徵求同意,又面臨着丟掉飯碗的危險,這當然是非常不公平的處境。

OpenAI的做法,符合了美國矽谷一貫的行事風格——用facebook創始人朱克伯格的話來說,叫做「move fast and break things」。倘若用褒義詞翻譯,這句話的意思是「打破常規、快速破局」。但它也可以被認為是「目中無人,無論是什麼規範和情理都可以輕易打破」。著作權?徵求同意?尊重作者?在高舉科技創新大旗的矽谷企業那裏,這些都是無關緊要、無足輕重的,不能被它們耽誤了科技進展的步伐。

這種「破壞式創新」,當然是一種傲慢。諷刺的是,正是有無數媒體和作家創作了那麼多的文字,大語言模型的訓練才成為可能。在這個過程中,OpenAI卻選擇了無視和傷害這些讓技術成為可能的人和機構。那樣的後果,很可能是令大語言模型成為無源之水、無本之木。

「築起高牆」的自利

認為自己的權益受到OpenAI侵害的《紐時》,選擇拒絕讓它繼續使用自己的文本數據,甚至在訴訟中要求銷毁這些使用了《紐時》數據來訓練的大語言模型。這樣的反應,在一些人看來也是過頭了。

畢竟,大語言模型對於人類來說,的確是一項很可能帶來極大好處的技術創新。《紐時》是否為了保衛自己的私利,不顧全人類的福祉?

從歷史角度來看,反對技術進步的力量往往最終失敗。紐約市立大學新聞學教授Jeff Jarvis就提出,廣播剛剛出現的時候,各大報社曾經想盡一切辦法,不讓電台主播轉述報紙上報道過的新聞;它們認為那是一種侵權,人們聽了廣播上讀的新聞,還會去買報紙嗎?

當然,我們現在已經知道,這種擔心是多餘的,這種限制也是不明智的,因為它傷害了社會作為一個整體獲知最新消息的能力。廣播電台直到今天,依然在介紹和評論報紙上的新聞內容,這對於促進整個社會中的信息流通是有益的。

也有很多人指出,《紐時》起訴OpenAI只不過是一種談判策略;真正目的是從OpenAI那裏得到更好的合約、取得更多的經濟補償,因為在美國司法體系之下,這樣的訴訟往往以和解告終。

也就是說,訴訟的潛台辭其實是:我們已經默認了OpenAI的現狀,並不真的覺得大語言模型的開發可以推倒重來,也無暇顧及其他媒體和創作者,無法在普遍意義上聲張正義;訴訟的目的,不過是從OpenAI身上榨出更多錢來。在報社強調知識產權的時候,公共利益並沒有被一併置於重要的考慮位置。

無論是OpenAI無視規則的破壞式創新,還是《紐時》發起的保護主義式談判和訴訟,都不是對技術創新與知識產權之間張力的最理想解法——它們可能是最壞的解法,一方面沒有對商業利益合理分配,另一方面又讓大語言模型的開發面臨更多不確定和風險。

訴訟與談判之外的另一種可能

在一個更理想的社會當中,鼓勵技術創新、尊重知識產權、合理分配利益,這些事情應該可以同時發生。

Jeff Jarvis教授舉了一個來自挪威的例子。去年6月,挪威媒體集團Schibsted公開呼籲:各家挪威媒體都應該免費貢獻出自己的內容,用來訓練一個挪威語的大語言模型。這樣的模型,在很大程度上可能要比翻譯自英語的大語言模型表現更好。

當然,研發是一回事,商業化應用又是另一回事。當挪威媒體無償拿出自己的內容去訓練挪威語大語言模型的時候,它們是在支持研發的過程,這並不意味着研發結果要被某一家商業公司利用。

實際上,當研發完成之後,下一步的商業化將牽涉媒體之間複雜的利益分配機制。其中的原則是明確的:媒體的參與是自願的,如果參與,那麼一定會有清晰的付出和明確收穫。不會有人和機構因為這種大語言模型的開發及商用而一夜暴富,但也不會有誰會發現自己的勞動成果被赤裸裸地盜取和利用。

在這樣的模式下,技術的進步速度並不會被顯著拖慢。與此同時,技術的進步會更公平地惠及整個社會,而不是在社會上造成新的不平等及新的裂痕。

去年底,歐盟就世界上第一個AI法案達成協議,距離正式立法已經非常接近。這項法案要求AI系統的提供者,必須詳細公布有哪些內容被用於訓練AI系統;還要求在使用任何受版權保護的內容之前,都需要得到相關權利人的授權。這是立法監管層面的一大進展。不過,監管只能提供一個大框架。在具體操作當中,科技公司、媒體、作家和其他內容創作者之間,還應探索更有創造力的合作方式。

作者是中大新聞與傳播學院助理教授

(本網發表的時事文章若提出批評,旨在指出相關制度、政策或措施存在錯誤或缺點,目的是促使矯正或消除這些錯誤或缺點,循合法途徑予以改善,絕無意圖煽動他人對政府或其他社群產生憎恨、不滿或敵意)

[方可成]

上 / 下一篇新聞