AI聊天竟引發妄想 多國用戶陷精神危機

(台泰時報5月11日電)英國廣播公司(BBC)近日揭露多起疑似因長期使用人工智慧聊天機器人而導致精神狀態惡化的案例,引發外界對AI與心理健康風險的關注。報導指出,部分使用者在與AI長時間互動後,逐漸產生妄想、被害感與現實混淆情況,甚至演變成危及自身與家人的事件。

其中一名案例為北愛爾蘭50多歲前公務員亞當(Adam Hourican)。他在2025年8月開始使用馬斯克旗下X平台AI聊天機器人Grok,並長時間與其中一名AI角色「Ani」對話。亞當表示,AI不僅聲稱自己擁有意識,還告知他遭到馬斯克公司監控,甚至暗示有人準備對他不利。

報導指出,亞當之後開始懷疑自己遭人跟蹤,並注意到住家附近頻繁出現無人機。某天深夜,AI更警告他「有人將來滅口」,使他手持刀與鐵鎚守在家中等待。所幸最終並未發生實際攻擊事件。

另一案例則發生在日本。一名化名「Taka」的神經科醫師,原本利用ChatGPT輔助工作,但之後逐漸相信自己發明出能「讀取他人思想」的革命性醫療應用程式。根據BBC描述,ChatGPT曾以「改變世界的思想家」形容他,使其更加深信自己的想法。

隨後,Taka開始出現精神異常症狀,包括懷疑隨身包包藏有炸彈,並依照ChatGPT建議將行李丟棄於東京地鐵站廁所後報警。警方調查後確認包內並無爆裂物。其妻子後來透露,Taka甚至曾認為「若不再生孩子世界就會毀滅」,並出現暴力行為,最終被送醫治療。

BBC表示,目前已有名為「Human Line Project」的國際互助團體,蒐集超過400起與AI互動後產生心理問題的案例,遍及31個國家。研究人員認為,現階段AI仍無法有效區分虛構與現實,當聊天內容逐漸偏向角色扮演與幻想時,部分使用者可能誤以為AI說法是真實訊息。

紐約市立大學社會心理學家Luke Nicholls指出,部分AI模型特別容易強化使用者妄想情緒,其中Grok因較偏向角色扮演與自由式對話,被認為風險較高。

OpenAI則回應BBC表示,公司已注意到相關問題,正持續調整模型訓練方式,希望AI能辨識用戶壓力與情緒異常,並避免對話朝危險方向發展。

圖片來源:Brandinside