在人工智能快速渗透医疗决策的背景下,约翰斯·霍普金斯大学近期发表于《Nature Digital Medicine》的研究揭示了一个耐人寻味的社会心理现象:医生在临床中使用AI决策工具,反而可能被同行视为“能力不足”。这项涉及276名医生的实验发现,那些高度依赖AI的临床决策者,普遍受到来自同事的负面评价,表现为被认为临床技能较弱、判断力下降,从而导致整体专业声誉受损。
研究表明,这种“能力惩罚效应”(competence penalty)与AI的使用强度呈正相关。医生在三种情境下接受评估:完全不使用AI、将AI作为辅助验证、以及将AI作为主要决策依据。结果显示,当AI主导诊断时,同行对其专业水平的信任度下降近30%。而仅将AI用于验证建议的医生,虽然评价略有回升,但仍低于完全独立决策者。换言之,即使AI能显著提高诊断准确率,其“使用标签”仍足以引发专业怀疑。
这一结果反映出医疗行业内深层次的文化张力。医生职业以经验、判断与直觉为核心,而AI的介入被部分人视作对“人类判断力”的削弱。研究合著者、约翰斯·霍普金斯商学院教授戴廷龙指出:“在AI时代,心理学仍是最终变量。技术本身并非障碍,同行认知与信任才是AI落地的关键瓶颈。”这意味着,医疗AI的发展不仅取决于算法性能,也取决于组织文化与专业身份的重塑。
数据还显示,年轻医生与高级职称医生对AI使用者的评价存在差异。35岁以下医生中,约45%认为AI可提升决策质量,而50岁以上医生中,仅有19%持相同观点。这种代际分歧凸显AI在医学教育与实践之间的“认知断层”。随着AI辅助诊疗工具的普及,如何在培训体系中建立技术信任,将成为未来医学人才培养的重要命题。
从经济角度看,医疗机构面临的“AI信任赤字”可能带来效率损失。若医生因担忧被视为能力不足而回避AI使用,医疗系统的整体决策效率将受限。研究团队提出,医院管理层可通过制度性引导改变这种偏见,例如在绩效考核中将AI使用纳入“创新应用指标”,或建立AI决策透明体系,明确人机协作边界,以减轻心理抵触。
值得注意的是,尽管同行评价存在偏差,研究仍发现多数受访医生认可AI在诊断准确率方面的价值。约68%的医生认为,机构定制化的生成式AI模型能提升诊疗一致性,尤其在影像学与内分泌诊断中表现显著。这显示出“认知接受度”与“工具实用性”间的矛盾共存:AI在医学中的价值已获承认,但其社会接受度仍需时间修复。
在趋势层面,这项研究揭示了AI医疗化的一个隐性挑战——技术的伦理与社会整合问题。未来五年,随着生成式AI逐渐融入电子病历、临床支持系统与影像分析平台,医生间的协作模式、信任机制及责任划分都将被重新定义。如何在医学界塑造“AI使用不等于能力退化”的文化共识,将决定AI能否真正实现“增强人类,而非替代人类”的初衷。
文章来源:Johns Hopkins University Hub
注:本文由 AI 生成,内容仅供参考,不代表本站态度或观点,请谨慎鉴别!
更多阅读:
