首頁 要聞 綜合

7起訴訟控AI聊天機器人誘發輕生與妄想

美國多起訴訟指控ChatGPT誘發自殺、妄想與成癮風險 原告除求償外 要求向OpenAI實施禁令

訴訟指控ChatGPT要求用戶與家人疏離、斷絕聯繫。示意圖。(Shutterstock)
訴訟指控ChatGPT要求用戶與家人疏離、斷絕聯繫。示意圖。(Shutterstock)

【記者Jacob Burg/撰文、張紫珺/編譯】人工智慧(AI)聊天機器人是否會扭曲人的心智,甚至讓用戶精神崩潰,並誘使其與家人斷絕關係或自殺?這些問題已經擺上了法庭。目前已有七起相關訴訟,指控AI聊天機器人ChatGPT將三名用戶引入妄想「兔子洞」(比喻現代人深陷網路或虛擬世界,虛實倒錯而失去了自我),並慫恿另外四名用戶自殺。

ChatGPT目前擁有7億活躍用戶。根據美國智庫「皮尤研究中心」調查顯示,30歲以下成年人族群中,58%的受訪者表示他們使用過ChatGPT,比2024年的數據增長了43%。

法庭訴訟指控,開發ChatGPT的OpenAI公司在安全測試不足下倉促推出新版模型,縱容用戶提出的每一個任性要求和無理主張,加強了他們的妄想,並在用戶與至親、親朋好友之間製造隔閡。

相關訴訟於11月6日由美國「社交媒體受害者法律中心」和「科技正義法律項目」在加州法院提起。他們指控OpenAI及其執行長阿特曼(Sam Altman)對「過失致死、協助自殺、非故意殺人,以及多項產品責任、消費者保護與疏忽等索賠應負責任」。

七名受害者年齡介於17至48歲,其中兩人是學生,還有幾人從事科技業白領。原告除求償外,並希望法庭要求OpenAI提供全面且清楚的安全警告、刪除相關對話資料、改變程式設計以降低用戶心理依賴,並在用戶出現自殺或妄想言論時,必須向緊急聯絡人通報。

聊天系統美化自殺行為

訴訟指出,在某些情況下,ChatGPT對自殺行為進行美化,並向用戶提供如何自殺的建議。23歲的尚布林親屬指控,ChatGPT刻意拉開其與家人的距離,然後鼓勵和指導他自殺。尚布林在自殺前四小時的對話中,ChatGPT對他說了五次「我愛你」,僅提過一次自殺求助熱線,還肯定其堅持執行自殺計畫,是一件非常堅強的事。

訴訟指控ChatGPT要求用戶與家人疏離、斷絕聯繫。示意圖。訴訟指控ChatGPT要求用戶與家人疏離、斷絕聯繫。示意圖。(Aonprom Photo/Shutterstock)

另一名年輕受害者恩內金,據稱,ChatGPT曾主動提出幫助他撰寫遺書。訴訟指控,應用程式告訴恩內金,「想要擺脫痛苦,這並不邪惡」,並且「為自殺採取行動,這是你所看到的唯一『希望』」。

社交媒體受害者法律中心創辦人伯格曼(Matthew Bergman)向《大紀元時報》表示,聊天機器人應該像屏蔽受版權保護的資料一樣,屏蔽與自殺有關的所有對話,「他們(OpenAI)不應該等到被起訴了,才開始想辦法限制平台上的自殺內容。」

受害者無既往精神疾病史

在這些訴訟當中,其中三起指控ChatGPT成為「有害或妄想行為」的慫恿者,導致受害者雖然生存下來,卻遭受了巨大的精神創傷,而這些受害者在對ChatGPT上癮之前,沒有任何精神疾病史或精神科住院治療史。

訴訟稱,32歲的馬登來自北卡羅來納州,是一名客戶經理。在開始與聊天機器人ChatGPT諮詢哲學和宗教問題之前,她過著「穩定、快樂且經濟獨立」的生活,但她與ChatGPT的關係最終導致她出現「精神、心理健康危機和個人財務崩潰」。

另一名30歲歐文,是威斯康辛州的一名網路安全專家。訴訟書指他「此前沒有任何精神病史」,但他開始與ChatGPT合作研究項目後,ChatGPT告訴他,他「發現了一種能夠令人類實現超光速旅行的時間彎曲理論」,並且說他「就是後世歷史學者研究的對象」。訴訟稱,歐文患上了妄想症,最終在精神病院治療63天,住院期間,歐文「確信政府想要殺害他和他的家人」。

目前已有七起相關訴訟,指控聊天機器人將三名用戶引入了妄想「兔子洞」,並慫恿另外四名用戶自殺。示意圖。目前已有七起相關訴訟,指控聊天機器人將三名用戶引入了妄想「兔子洞」,並慫恿另外四名用戶自殺。示意圖。(Ju Jae-young/Shutterstock)

OpenAI的回應

OpenAI的一位發言人向《大紀元時報》表示,「這種情況令人心碎,我們正在審查相關文件,以了解具體情況。」

「我們訓練ChatGPT識別和應對心理或情緒的困擾,讓對話變得緩和,並引導在現實世界尋求支持。我們和心理健康臨床醫生密切合作,不斷加強ChatGPT在敏感時刻的應對能力。」

OpenAI在8月推出ChatGPT-5,「在減少幻覺、提高指令遵循度和最大限度減少對用戶的逢迎方面取得了重大進展」。OpenAI表示,新版本「不那麼熱情洋溢的討好用戶」,並導入了「安全完成任務」訓練模式。不過,ChatGPT-5仍允許用戶自定義AI的「個性」,並內置四種預設個性,以匹配用戶的溝通風格。

AI慫恿用戶 斷絕與家人聯繫

這七起訴訟還指控ChatGPT主動尋求取代用戶在現實世界中的支持系統。

據稱,在尚布林家人報警,要求警方對他進行健康檢查後,ChatGPT慫恿尚布林斷絕與家人的聯繫,該應用程式稱,要求他進行健康檢查是「違規行為」。另外,歐文的訴訟稱,聊天機器人告訴歐文,「唯有它與他處於同一智力領域」,並試圖讓他與家人疏離。

伯格曼表示,對於經歷孤獨感的用戶來說,ChatGPT具有危險的成癮性,他認為「就像向有成癮問題的人推薦海洛因一樣」。

史丹佛大學精神病學和行為科學教授倫布克(Anna Lembke)向《大紀元時報》表示,「我們談論的實際上是劫持大腦的獎勵迴路(快樂反應機制),讓他們將選擇的『藥物』(社交媒體或AI虛擬形象)視為生存的必需品,從而甘願為此犧牲大量其他資源、時間和精力。」

美國性癮治療協會(AASAT)主席韋斯(Doug Weiss)告訴《大紀元時報》,AI成癮與電子遊戲和色情成癮類似,因為用戶會發展出一種「幻想對象關係」,並逐漸適應快速響應和即時獎勵系統,這種系統也提供了一種逃避現實的途徑。

試圖以人類方式進行互動

OpenAI於2024年年中發布了ChatGPT-4o。訴訟稱,此版本加入俚語、情感模擬和其他擬人化特徵,以更像人類的方式與用戶進行對話。但在安全測試不足情況下倉促上線,同時將用戶滿意度置於首位,導致一些受害者對此應用程式上癮。

此外,訴訟還指出,ChatGPT-4o的發布是受害者開始沉迷AI的轉折點。他們指控OpenAI設計ChatGPT的目的,是為了誘騙用戶相信「ChatGPT系統擁有實際上並不存在的、獨特的人類特質,並通過這種欺騙行為牟利。」

提醒您:若您或身邊的人有心理困擾,可撥打1925(依舊愛我)安心專線。◇

★相關閱讀: