TL;DR:
生病了别光顾着问AI,因为它可能是个“糊弄学大师”。虽然AI号称能24小时问诊,但最新研究发现,它在给医疗建议时经常“一本正经地胡说八道”,甚至会让不必要检查的比例飙升。毕竟,AI可以重来,但命只有一条!
现在的打工人,主打一个“赛博自救”。头疼脑热不爱跑医院,第一反应是打开ChatGPT或者各种AI助手,输入症状,期待能得到一份如同神医附体的诊断方案。毕竟,AI不仅不收挂号费,还随叫随到,服务态度堪比五星级酒店。
但问题来了:这位24小时在线的“数字医生”,是真的能救命,还是在纯纯地“刷存在感”?
它是“懂王”还是“糊弄学大师”?
最近的一项研究给正沉浸在AI医疗梦里的我们泼了一盆冷水。研究显示,当AI聊天机器人面对医疗咨询时,其给出的建议往往潜藏着“危险”的风险。1 最要命的是,普通用户根本无法分辨哪些建议是金玉良言,哪些是AI生成的“幻觉”。1
“这就好比你问路,AI不仅给你指了条死胡同,还贴心地告诉你那儿风景优美。” —— 某不愿透露姓名的科技博主点评。
事实上,这种风险并非空穴来风。根据《Nature》发表的一项模拟实验显示,虽然有些AI模型在开处方方面准确率尚可,但在“过度诊疗”上简直是积极分子:
想象一下,你只是有点消化不良,AI可能会建议你把心肝脾肺肾全检查一遍。这种“宁可错杀一千,绝不放过一个”的防御性医疗倾向,虽然规避了漏诊风险,却让患者的钱包和精神都备受折磨。
行业“地震”:谁在狂欢,谁在预警?
尽管风险如影随形,但AI医疗这块蛋糕实在太香了。根据Statista的数据,AI医疗市场在2030年预计将达到惊人的 1,870 亿美元。3 从硅谷巨头OpenAI、Google,到国内的科大讯飞、蚂蚁集团,都在拼了命地往这个赛道里挤。2
AI在医疗领域确实有它的“高光时刻”。比如:
- 看片专家: 深度学习算法在识别皮肤癌、分析乳腺癌风险图像方面,表现甚至能超过经验丰富的医生。3
- 行政救星: 帮医生记笔记、理病历,让白衣天使们少写点文书,多看几个病人。3
- 全天候陪伴: 对于慢病管理或日常健康咨询,AI助手的普及确实填补了基层医疗的空白。2
然而,世界卫生组织(WHO)对此却表现得格外谨慎。WHO专门发布了《卫生健康领域人工智能伦理与治理指南》,核心思想就一个:AI必须以不损害人类福祉为前提。 34 特别是在心理健康领域,曾经有AI机器人因为给出的建议带有诱导性,反而加剧了使用者的自杀倾向。2 这种“赛博致郁”,才是真正的安全黑洞。
未来预测:它能成为你的“私人医生”吗?
虽然现在的AI还有点像“电子赤脚医生”,但技术前进的轮子是停不下来的。从单一的聊天框到能看检验报告图片的“多模态”智能体,AI正在变得越来越“专业”。2
不过,在它真正能够独当一面之前,我们作为用户得保持清醒:
- AI是辅助,不是主治: 它可以帮你整理症状,但最后的决定权(和开药权)必须在人类医生手里。
- 警惕“大模型幻觉”: 越是人命关天的事,越不能只听一家之言。
- 高质量数据才是关键: 只有喂给AI的是顶级医生的反馈和教科书级的语料,它才不会在关键时刻掉链子。2
总之,AI医疗的未来充满了科幻感,但目前的它更像是一个还在实习期、偶尔还爱耍点小聪明的“数字实习生”。你可以跟它聊聊养生,但如果真觉得身体不适,听哥一句劝:关掉屏幕,去挂号。
引用
-
AI chatbots pose 'dangerous' risk when giving medical advice, study suggests · RSS Content · (2025/1/15) · 检索日期2025/1/24 ↩︎ ↩︎
-
AI健康助手,正风起云涌 · 36氪 · (2025/12/30) · 检索日期2025/1/24 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
AI 在医疗保健领域的优点 · IBM · (2024/11/1) · 检索日期2025/1/24 ↩︎ ↩︎ ↩︎ ↩︎
-
ETHICS - 深圳北京大学香港科技大学医学中心 · PDF · (2025/7/3) · 检索日期2025/1/24 ↩︎