加拿大不久前發生史上第2大校園槍擊案,華爾街日報今天獨家報導,嫌犯魯特賽拉爾去年在與ChatGPT對話過程中,曾連續多日描述槍枝暴力情境,OpenAI曾考慮示警執法機關,但最終決定不聯絡當局。

隨著人工智慧(AI)普及,越來越多人向聊天機器人傾訴最私密的想法。這起事件再度凸顯一個矛盾:研發聊天機器人的公司如何在使用者隱私和公共安全間取得平衡。

現正最夯:二二八79週年 嘉義長老教會辦追思禮拜 翁章梁出席

華爾街日報(Wall Street Journal)報導,加拿大10日發生大規模槍擊案,造成含槍手在內共9人死亡、27人受傷,槍手為18歲女性魯特賽拉爾(Jesse Van Rootselaar),她在警方趕到時已自殺身亡;而她犯案前數個月,曾與ChatGPT談及暴力內容。

OpenAI表示,曾考慮就她與聊天機器人ChatGPT互動的情況向執法機關示警。

知情人士指出,魯特賽拉爾去年6月連續多日描述了涉及槍枝暴力的情境內容。

全站首選:川普關稅加碼15% 翁履中:不聽話就重談

她在ChatGPT輸入的文字對話被自動審查系統標記,令OpenAI人員不安,10多名員工曾就是否要採取行動進行討論,部分員工將她的話語解讀為一種暴力的徵兆,並請示主管向加拿大執法機關通報她的行徑。最終,OpenAI的高層決定不聯絡當局。

OpenAI一名發言人表示,公司決定封鎖他的帳號,但認定她的行為還沒達到需要通報執法機關的門檻。在槍擊事件發生後,公司已主動聯繫加拿大皇家騎警(RCMP)。

根據規定,判斷標準是其行為必須構成對他人產生可信且迫在眉睫的人身傷害風險。

報導並指出,其他數位足跡也透露端倪,除與ChatGPT就暴力內容對話,魯特賽拉爾也在線上遊戲平台「機器磚塊」(Roblox)上製作一款模擬大規模槍擊的電玩遊戲,並在社群媒體上,分享她對性別轉換過程的憂慮,以及她對動漫與非法藥物的興趣。

OpenAI表示,公司會訓練其模型以阻擋使用者對現實世界造成傷害,並將使用者表達傷害意圖的對話轉交由人工審查員處理;在評估是否介入時,會在暴力風險、隱私考量,以及非必要涉及警方是否對個人與家庭造成困擾進行權衡。