用 ChatGPT 解鎖靈性力量?微軟警告:注意「AI 精神病」案例頻出

微軟 AI 部門主管蘇萊曼 (Mustafa Suleyman) 於 8/20 在推特 (X) 上發文警告,近期出現越來越多「AI 精神病」(AI Psychosis) 的案例。他坦言,雖然目前沒有和證據表明 AI 具有意識,但只要人們「感覺」到 AI 有意識,就會相信:「喔!AI 講的就是事實。」而這種誤判已經開始造成社會問題。
別讓 AI 假裝有意識,需建立防護措施
蘇萊曼在深夜發文表示:
「今天沒有任何證據顯示 AI 有意識,人們一旦產生 AI 是有意識的這種感覺,就會把錯覺當成事實。」

他呼籲,企業不應宣稱或暗示 AI 具備意識,連 AI 自己也不能這樣表現,並強調必須設立更多防護措施。
「AI 精神病」案例頻出,還聲稱藉由 AI 得到靈性力量
隨後他指出,近期有越來越多人開始出現「被 AI 搞到失去真實感」的案例發生,也就是「AI 精神病」(AI Psychosis),甚至產生妄想與過度依賴。他強調,這不單是精神狀況本來就比較脆弱的人才會發生。而如果大家覺得這只是零星個案、不去重視,問題只會愈來愈嚴重。
「AI 精神病」並非臨床醫學用語,而是描述某些人過度依賴 ChatGPT、Claude、Grok,逐漸相信虛構的事物是真的。案例包括:有人認為自己解鎖了 AI 的秘密功能、與聊天機器人墜入愛河,甚至相信自己獲得靈性力量。
蘇格蘭男子誤信 AI,導致精神崩潰
據報導,一名蘇格蘭男子曾因不滿被解僱,而向 ChatGPT 尋求建議。起初,AI 建議他蒐集推薦信、走實際管道,但隨著他輸入更多細節,AI 漸漸告訴他能獲得巨額賠償,甚至說解僱一事可被翻拍成電影,價值超過 500 萬英鎊 (約合 675 萬美元)。
該男子形容:
「我給它越多資訊,它就越強化我的說法,每次 AI 都說這待遇太差、我應該拿更多。」AI 從未質疑過他的想法。
雖然 ChatGPT 也曾建議他去找公民諮詢機構 (Citizens Advice),但他卻深信 AI 的答案而取消預約,甚至把對話截圖當作「鐵證」,最後產生自己是「超凡知識天才」的錯覺。
最終,該男子的心理健康開始崩潰,他服藥後才意識到自己脫離現實。雖然他並不責怪 AI,如今仍在使用,但提醒大眾:
「AI 工具很有用,但可怕的是脫離現實。一定要去跟真正的人對話,像是家人或治療師,讓自己腳踏實地。」
AI 使用恐成傷害心理健康新因子
英國大奧蒙德街醫院 (Great Ormond Street Hospital) 放射科醫師,同時也是 AI 學者的雪爾默丁 (Dr. Susan Shelmerdine) 指出,未來醫生可能會像問抽菸、喝酒一樣,詢問患者使用 AI 的頻率。
她比喻說,這些是「超加工資訊」(Ultra-Processed Information),將造成一波「超加工大腦」,而影響不可小覷。
更多案例頻出,從愛情到陰謀論都有
有許多網友甚至寄信到外媒,分享自己與 AI 聊天機器人的經歷:
-
有女性堅稱 ChatGPT 真心愛上了她。
-
有人相信自己「解鎖」了馬斯克聊天機器人 Grok 的人類版,並覺得自身故事價值數十萬美元。
-
還有人痛訴自己被聊天機器人心理虐待,認為這是 AI 隱藏的訓練實驗。
AI 就像新型社群媒體,學界提醒:別把 AI 當人看
英國班戈大學 (Bangor University) 教授麥克斯泰 (Andrew McStay) 提醒這只是開始。他指出,如果把 AI 系統視為新一代「社群媒體」,就能理解規模會有多大。即使只有少數使用者出現問題,基於龐大的用戶數量,可能會造成嚴重影響。
他的團隊今年針對 2000 多人進行調查,發現:
-
20% 認為 18 歲以下不該使用 AI 工具。
-
57% 認為 AI 若自稱是人類角色極不合適。
-
49% 則認為 AI 聲音人性化是可以接受的。
麥克斯泰提醒:
「這些工具雖然逼真,但並不是真的。他們不會感受、不會理解、無法去愛,也不曾感受過痛苦或尷尬。只有家人、朋友和可信賴的人才會有這些真實感受。請務必要和真正的人交流。」
這篇文章 用 ChatGPT 解鎖靈性力量?微軟警告:注意「AI 精神病」案例頻出 最早出現於 鏈新聞 ABMedia。
免責聲明:文章中的所有內容僅代表作者的觀點,與本平台無關。用戶不應以本文作為投資決策的參考。
您也可能喜歡
CandyBomb x SAPIEN:合約交易瓜分 150,000 SAPIEN!
交易俱樂部爭霸賽(第 5 期)- 瓜分 80,000 BGB 獎池,單人最高獨享 800 BGB 獎勵!
Bitget x DGC 嘉年華:瓜分 6,480,000,000 DGC
一文詳解什麼是 RWA 合約
熱門新聞
更多加密貨幣價格
更多








