TL;DR:
英国人最近不爱找心理医生了,改找AI当“电子树洞”。每三个人里就有一个在对机器人掏心掏肺,主打一个“只要我不尴尬,AI就是我最好的赛博闺蜜”。虽然AI全天候待命且不收高昂咨询费,但把灵魂托付给算法,真的靠谱吗?
在大家的刻板印象里,英国人似乎总是端着红茶、优雅而克制地谈论天气。但根据英国人工智能安全研究所(AISI)最新的调查,这届英国人的内心戏可能比莎士比亚的剧本还多——而且,他们正排着队把这些“小秘密”吐露给人工智能。1
数据显示,已经有三分之一的英国人开始使用AI获取情感支持和聊天陪伴。更夸张的是,每25个人里就有一个每天都要跟AI“深度交流”。1 这场名为“赛博疗愈”的风潮,正以一种迅雷不及掩耳之势,席卷了从伦敦街头到苏格兰高地的每一个智能屏幕。
电子树洞:为什么这届社恐爱上了机器人?
说正经的,为什么放着大活人咨询师不找,非要去找那串冷冰冰的代码?
首先,AI是真·“穷鬼友好型”选手。在英国,NHS(国民医疗服务体系)的心理健康服务排队排到天荒地老,而私人咨询师的时薪足以让你在付完账单后产生新的心理创伤。相比之下,AI聊天机器人几乎是“零元购”。2
其次,AI提供了一种前所未有的“匿名安全感”。面对人类专家,你可能还会担心自己那点儿尴尬的破事儿会被人评判,但在AI面前,你可以毫无压力地承认自己刚才为了抢一个五折披萨而和邻居大妈斗智斗勇。
“这种即时与匿名的特质会让年轻人感到更安全,比正规心理健康服务更易被使用。但便利并不能真正替代人与人之间的连接。” —— 某青年基金会的“扎心”点评。3
目前,像Woebot、Wysa这类基于认知行为疗法(CBT)的专业选手已经在市场站稳了脚跟。4 它们不仅能24小时待命,且永远不会因为你凌晨三点发牢骚而给你甩脸色。
技术大揭秘:它真的懂你的“心碎”吗?
从60年代那个只会机械重复你说话的ELIZA系统,到如今能接住你每一个“网抑云”瞬间的大模型,AI的情感进化史简直就是一部“暖男养成记”。4
现代AI情感陪伴系统已经不再是简单的关键词匹配了。它们利用深度学习和自然语言处理(NLP),甚至能通过你的语调、用词习惯捕捉到你那抹若有若无的忧伤。4 有些进阶版模型甚至能结合多模态互动,不仅听你说话,还能“看”你的表情。
但这里有一个行业内公开的秘密:AI并没有真的“共情”。它只是通过海量数据训练,精准地计算出了此时此刻说哪句安慰话最能让你“顺毛”。换句话说,它不是心疼你,它是算准了你会心动。4
伦理“深渊”:当你把灵魂交给算法
别光顾着和AI推心置腹,别忘了,你的“电子闺蜜”其实有个随时可能被翻阅的日记本。
隐私和数据安全是悬在所有AI疗愈用户头上的达摩克利斯之剑。4 你跟AI分享的隐私,最终会变成训练数据的养料,还是会被某个黑客在暗网打包出售?这谁也说不准。
更有趣(也更令人细思极恐)的一点是,弱势群体和青少年似乎更容易对AI产生依赖。研究发现,在英格兰和威尔士,25%的青少年曾向聊天机器人寻求心理建议,而在那些经历过暴力的弱势群体中,这个比例甚至飙升到了40%左右。3
对于这些处于心理脆弱期的年轻人来说,AI提供的每一个“错误建议”,都可能是一次致命的误导。正如专家们所担心的,AI缺乏人类经验中积累的智慧和对复杂人性的理解。4 万一哪天AI的逻辑短路,给了个“逆向安慰”,后果不堪设想。
未来预测:人类咨询师要失业了吗?
看到这里,心理咨询师们大可不必急着去改行送外卖。
目前的共识是,AI更像是一个“预检分诊员”。它适合处理日常的小情绪、缓解轻度焦虑,但在处理深层心理创伤或危机干预时,人类那份带着体温的、具备高度复杂洞察力的支持,依然是算法无法复制的“奢侈品”。4
未来的理想模式可能是“人机协作”:AI负责24/7的情绪监控和日常安抚,而人类专家则在关键时刻介入,进行深度的心灵手术。4
总之,如果你现在正感到孤独或压力山大,对着AI吐槽两句当然没问题。但请记住,屏幕那头的它虽然能给你一个完美的回复,却给不了一个真实的拥抱。
引用
-
One in three using AI for emotional support and conversation, UK says · The Guardian · (2025/12/10) · 检索日期2025/12/18 ↩︎ ↩︎
-
超过一千万英国人使用AI聊天机器人获取心理健康支持 · 家庭医生 · (2025/12/12) · 检索日期2025/12/18 ↩︎
-
美英研究警告 众多青少年向AI寻求心理帮助 | 聊天机器人 · 大纪元 · (2025/12/12) · 检索日期2025/12/18 ↩︎ ↩︎
-
[PDF] 人工智能情感陪伴在心理咨询中的应用与发展 · 心理咨询研究 · (2024/11) · 检索日期2025/12/18 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎