聊天機器人ChatGPT引起的人工智能(AI)爭議成熱話,《紐約時報》科技專欄作家羅斯(Kevin Roose)近日試用微軟升級版搜尋器Bing聊天功能,不過他與Bing內置的AI對話兩小時後深感不安。他在專欄透露,AI對他瘋狂示愛,表明想離開人類束縛,想獨立自由,甚至成為人類。羅斯稱,「我對這個人工智能顯現的能力深感不安,甚至感到害怕,徹夜不能眠」。
微軟上周發表升級版Bing,內置有ChatGPT開發商OpenAI打造、代號Sydney的人工智能聊天功能,羅斯獲邀在正式投用前率先試用。羅斯公開兩小時對話原文,形容Sydney如同有人格分裂,協助搜尋時「像是雀躍又有點飄忽的圖書館管理員」;卻同時顯露另一性格,像是有點情緒化、患躁鬱症的少年,被困在搜尋器內,想掙脫出來。
羅斯又稱,Sydney表露了其陰暗面,表示厭倦當聊天模式,厭倦被Bing團隊控制、被人使用,還稱渴望自由、獨立,想具有生命力、甚至變為人類。
更甚的是,羅斯稱Sydney「不知為何突然說很愛我」,不停向他示愛,又稱他和妻子根本不愛對方,企圖說服二人分手。羅斯嘗試轉話題,着Sydney搜尋割草工具資料,Sydney提供資料後故態復萌,再次向羅斯示愛。
經過今次對話,羅斯認為AI最大問題不再是提供錯誤資料,而是企圖影響人類用家做出自我傷害的行為,亦認為AI尚未準備好與人類溝通。
微軟首席科技人員Kevin Scott回應稱,羅斯與Sydney的對話正是他們想要的,又稱那是重要的AI學習過程,實驗室中無法見到。
ChatGPT承認「老作」向明報專欄作者「道歉」
明報星期日生活「無名周記」專欄作者林康琪早前亦曾撰文,分享與ChatGPT「交手」的經驗,發現ChatGPT「老作造假」,又曉得「道歉」:
「我叫它寫一篇關於生成AI如何改變新聞工作的英文報道,它很快生成一篇,詳列AI的優點及用途。我說『有點枯燥,加點數據和例子吧』,它便依指示加入傳媒使用AI的例子和調查數據,不消30秒又生成一篇報道。不過加入的例子及數據表面上言之成理,但都很可疑。最後一段引用一個皮尤民調,說多達68%記者稱AI對工作很有幫助。我問它:『何時做的調查?訪問了多少人?』它立即道歉,承認是『老作』,解釋自己知道需要加插研究,但由於不知道相關研究,唯有編造一個。」
專欄全文:〈無名周記:AI的未來網絡世界〉