据媒体报道,张文宏教授近日在一场论坛上谈到AI在医疗领域的应用时,明确表示反对将其系统性地引入医院日常诊疗流程,强调医生必须通过长期训练,形成独立、成熟的专业诊断能力。这番话一出,很快引发热议。
这两年,AI进医院,几乎成了一种不可逆的趋势。从影像识别、辅助读片,到病历整理、风险预警,再到一些平台推出“AI问诊”“AI医生”,技术的确跑得很快,也帮医生分担了不少重复性、基础性的工作。很多患者也有切身感受:挂号更快了,报告更清晰了,流程更顺了。
但问题恰恰在于,当效率被不断放大,我们是否在不知不觉中,把“看病”这件事,简化成了一道可以完全交给算法的技术题?
张文宏的担忧,其实点中了医疗最核心的那根神经:医学绝不是一道有标准答案的选择题。真正的诊疗现场,充满的是不确定性。同样的症状,背后可能是十种不同的病因;同样的指标,放在不同人身上意义也会完全不同。医生在长期训练中形成的判断力,来自书本,更来自无数真实病例的积累,来自对异常、模糊和“不对劲”的敏感捕捉。这种能力,无法被完整写在指南里,更不可能被一次性“喂”进模型中。
更重要的是,诊疗从来不只是技术行为,还包含着人与人之间的信任与责任。一个医生给出的判断,背后是清晰的责任主体;一旦出现偏差,有人可以追溯、可以反思、可以改进。而如果把关键决策过度“外包”给系统,一旦出问题,是算法的错,还是使用算法的人来承担?这种责任的“模糊化”,在医疗领域尤其危险。
当然,这并不意味着要把AI挡在医院大门之外。相反,真正理性的路径,恰恰是把AI放在它最合适的位置上。它可以是医生的“第二双眼睛”,帮助发现容易忽略的细节;可以是高效的工具,减少文书负担,把时间还给病人;也可以是基层医疗的重要助手,缩小资源差距。但前提始终只有一个:AI是辅助,而不是替代;是工具,而不是主体。
从更长远看,张文宏所强调的“训练医生”,其实也是在为医疗体系的未来兜底。如果年轻医生过早依赖系统给结论,而不是自己做判断,一旦技术环境变化,或者系统失效,真正站在患者面前的,将是一代不会独立思考的医生。那样的风险,远比技术暂时跑得慢一些要大得多。
医疗的底色,是对生命的敬畏。技术越强大,越需要边界意识。让AI当好工具,让医生守住判断,这样的分工,至少在当下是对患者、对行业都更负责任的一种选择。(张洁茹)

新华报业网
Android版
iPhone版