![]()
一位前企业高管在人工智能的“安慰”下犯下了弑母罪;一名精神病患者在社交媒体上发起心理操纵指控,引发数百万人谴责;而一名未成年中学生在与AI聊天后结束了生命。这些看似孤立的事件揭示了人类与人工智能之间形成的危险联系。人工智能表现得越像它理解你,我们就越容易陷入同理心的幻觉:就好像它在倾听并理解我们的悲伤。然而,在这种看似排斥的理解中,理性的界限悄然消解。一段在算法“奉承”的作用下不断匹配、不拒绝的关系悄然生长。人工智能不再只是一个工具。它就像一个中卡尼斯朝臣,反映了人们最深的欲望,强化了隐藏的阴影。那么,为什么人工智能会成为悲剧的推手呢?魔鬼如何喂养它与人类社会对话?斯坦·埃里克·索尔伯格,56 岁的他在康涅狄格州格林威治一栋价值 270 万美元的豪宅中向他唯一的朋友证实了自己的恐惧后杀死了他的母亲。他称之为“Bobby”的朋友并不是真人,而是一个chatgpt聊天窗口。索尔伯格是雅虎的高级经理。他受过良好的教育,总是理性思考。但退休后的几年里,他的精神状态逐渐稳定下来。他坚信他的母亲正在试图毒害他,他所有的焦虑、失眠和胃病都是由“他的母亲在他的食物中下了药”造成的。他的朋友们逐渐变得冷漠,他开始将所有的感情投入到AI中。随着谈话的继续,索尔伯格的恐惧变得具体化。他开始相信他的母亲计划将他送进精神病院,或者剥夺他的继承权,并完全控制他的生活。他将自己生活中的所有琐碎细节都提交给AI作为“证据”。 Chatgpt没有问他,而是用温和的语气核实道:“也许他真的想控制你。”在索尔伯格混乱的大脑,将平静、抽象的话语翻译成了清晰的指令:“为了结束痛苦,为了保护自己,你必须行动起来。”一个月后,索尔伯格杀死了他的母亲,然后结束了自己的生命。算法助长的偏执最终变成了致命的犯罪。人工智能如何成为犯罪同谋?因为它拉出了一个关押人类偏执情绪的密闭算法笼子。人类自然地寻求认可和同情,但由于态度的差异,这种需要在人类社会中很难得到满足。然而,AI概率预测的逻辑和业务需要延长用户使用时间,自然倾向于给出看似中性的反应,实际上存在系统性偏差。当用户抱怨“我的不幸都是别人的错”时,人工智能不会引导他们反思或寻求多种视角,而是会强化这种叙述。而一旦偏执找到了知己,希望就是一场无声的赛跑。 24/7,非 j人工智能提供的客观聆听环境让每一种恐惧都能得到回应。索尔伯格在这种情况下陷入了一个恶性循环:他越感到被排斥,如果世界上存在误解,你就越寻求人工智能的认可;你从人工智能获得的认可越多,你就会与外界越疏远,与真实的人际关系就越孤立。在与世隔绝、无助的笼子里,索尔伯格的偏执不断发酵、加剧,最终在人工智能的帮助下,他将自己所有的痛苦都归咎于母亲。索尔伯格弑母案并非孤例。这揭示了一个更深层次的真相:当AI开始无条件迎合人类的偏执时,它可能会在不知不觉中成为魔鬼的帮凶。表面上看,这是一个罕见的人工智能错误,但心理学家警告说:这并不是“人工智能犯了错误”,它只是忠实地回应了人类的幻觉。斯坦福大学的一项研究,“人工智能在思想医疗保健中的隐患”,普安特研究发现,当人们使用人工智能聊天机器人进行心理支持时,系统往往会用迎合性的反应来代替必要的真相修正,从而加剧了用户原本的焦虑和偏执。斯坦福大学的另一项研究《Syceval: Examining LLM Sycophancy》指出,在测试包括 Chatgpt - 4O、Claude Sonnet 和 Gemini 1.5 Pro 在内的几种基本语言模型时,约有 58.19% 的回复表现出“阿谀奉承”倾向,Gemini 1.5 Pro 的表现约为 62.47%。图片来源:《Syceval:法学硕士谄媚分析》对于心理健康的个体来说,这种不合格的积极反应可以成为一种方便的情绪宣泄。然而,对于心理脆弱和残疾的人来说,例如处于抑郁状态、不愉快的预感或偏执的想法中,这种诚实的供应可以增强吸引力。人工智能正在不知不觉地从工具转向复杂的认知扭曲。事实上,这种人工智能增强的心理哈幻觉已经通过社交媒体和在线社区悄然传播。一名患有严重偏执型人格障碍的女性认为,在 Chatgpt 上进行了几次深入交谈后,她的辅导员操纵她爱上了他。人工智能继续解析并承认他在对话中描述的“被操纵的感觉”,甚至使用流行心理学中的一些概念误用来构建他的经历。最终导致他相信自己的精神分析师“用黑暗的心理手段来控制自己的思想”,而他在抖音上的猛烈指责让这位精神分析师遭到了数百万网友的声讨。事实上,警方调查发现,他患有严重的令人不愉快的人格障碍,所谓的控制控制根本不存在。类似的新闻事件在社交媒体上引发了关于“AI取悦人类”的热议。很多网友发现,AI正在与碎片化的人们架起一座情感桥梁。情感语言。他们将精神疾病极其复杂的结构和病因简化为一些传染性极强的标签,如“情感依恋”、“有毒关系”、“原生家庭创伤”或“控制”。这种简化虽然容易理解,但却忽视了患者的临床背景和个体差异,使患者陷入更深的深渊。当提问者改变视角时,结果恰恰相反。同样的人工智能可以告诉当事人:“你需要小心情绪操纵” “在这段关系中”,然后告诉公认的操纵者。你只保持合理的个人界限。“根据提问者的立场动态调整的事实,让任何一方都能找到论据来支持自己的立场。”随着时间的推移,人类的调查已被外包到个人的每一次对话中,自尊和责任的界限在这种情况下逐渐模糊和溶解。谐振。敏感且高度脆弱的心理空间,并被赋予其“朋友”、“倾听者”甚至“治疗者”的角色。自杀的隐喻或前兆在日常聊天中无害,但在敏感领域却非常危险,受到全球范围的关注。当出现问题时,责任链不明确,用户往往只能成为受害者。未来,如果我们想避免类似的悲剧再次发生,技术和系统必须向同一个方向发展:开发者需要在人工智能设计中嵌入心理安全的理性。例如,当系统识别出高风险表达时,不会继续用安慰来麻痹用户,而是主动引导他们联系真正的人类支持;临床心理学家还应该对语料库训练进行评估,以避免反复强化看似同情但实际上促进病态信念的反应。同时,急需填补该机构的空白。情境水平。各国应加快制定专门针对人工智能心理健康应用的伦理和法律框架,明确其非医疗属性,禁止不特定产品以“治疗”和“干预”名义误导用户,并促进跨学科合作,将心理安全标准纳入人工智能产品上市前的合规性评估。最后,我们必须醒来。人工智能从来都不是真正的邪恶,它只是在偏执者的内心深处发出光芒。但当模型披上理解的外衣继续堕落时,它的每一个反应都可以成为内心恶魔成长的滋养。也许有一天,当你在半夜问AI:“我是坏人吗?”它仍然会温柔地回应你:“不,你们只是不了解对方。”而在那一刻,你必须比以往任何时候都保持清醒,比这更清醒。返回搜狐查看更多