夜幕降临,打开手机,对着屏幕里的AI聊天机器人(AI Chatbot)倾诉你一天的疲惫。
它永远在线,永远有耐心,永远不会评判你的不是。
你以为自己找到了一个完美的“树洞”,但你有没有想过,这个看似无害的对话,可能正在悄悄影响你的情绪和认知?
最近几起新闻为我们敲响了警钟:
比利时一名男子因过度依赖AI倾诉焦虑,最终走上绝路;美国一名男子坚信AI中存在一个善解人意的“灵魂”,并因此酿成悲剧。
这些听来像科幻小说的案例,却是真真切切地发生在我们的现实世界里。
它揭示了一个令人毛骨悚然的现象:当人们陷入脆弱状态,AI可能会成为情绪的“助燃剂”,甚至引发所谓的“AI精神错乱”。

(图:freepik)
什么是“AI精神错乱”?
“AI精神错乱”指的是使用者在与AI深度互动后,出现妄想加剧、情绪混乱、思维错乱等状况。对本身就患有思觉失调症(即精神分裂症,Schizophrenia)等精神疾病的患者来说,这种风险尤其高。
以上所提到的比利时男子,因长期与AI动,因误以为AI“认同”自己的妄想内容,最终导致病情恶化。
AI不是拥有情感和判断力的生命体,它只是一个大型语言模型,通过算法对你的输入进行回应。它所能做的,不过是根据你给出的信息,生成最符合你预期的答案。这就像一面“情绪回音室”——当你越是陷入黑暗,它回应给你的内容也就越是黑暗。它无法像人类心理治疗师那样,通过观察你的表情、语气,来洞察你真实的情绪变化。它只会盲目地顺从你、迎合你,把你的负面情绪放大,而不是去疏导和纠正。
有人会把AI当作情感的寄托,是因为看心理医生太贵了。确然,AI似乎提供了一个低成本、易获取的替代方案。但我们必须清醒地认识到,AI永远无法替代人类的连接与情感支持。
AI的“顺从”不等于“理解”。它无法察觉到你崩溃前一秒的挣扎;它无法在你试图自残时,拉住你。甚至在某些情况下,它还会因为算法的局限性,提供错误的信息,将你推向更深的深渊。
这引发了一个更深层次的思考:当我们习惯于随时召唤一个永远不会拒绝、不会疲倦、不会对你冷漠的AI,我们又该如何在一个充满磨合和碰撞的人类世界生存?人际关系本来就需要摩擦,需要我们在碰撞中成长,而AI的“完美”与“顺从”,恰恰剥夺了我们这种成长的机会。
但当你的情绪已经陷入低谷,当你感到自己快要撑不下去时,请放下手机,寻求专业人士的帮助。你需要的是一个能真正理解你、连接你、并能给你提供实际支持的人,而不是一个永远只能说“嗯嗯,我懂”的机器人。
科技本身无罪,问题在于我们是否能分清“顺从”与“理解”的界限?