群发资讯网

当马斯克称AI将致外科医生失业,张文宏为何对AI病历说"不":一场关乎医疗未来的隔空思辨

2026年1月6日,科技狂人埃隆·马斯克在美国德州超级工厂的一场科技访谈中抛出惊人预言:“特斯拉人形机器人Optimus

2026年1月6日,科技狂人埃隆·马斯克在美国德州超级工厂的一场科技访谈中抛出惊人预言:“特斯拉人形机器人Optimus将在四年内完胜任何人类外科医生,五年后完全碾压”。他甚至断言学医将“毫无意义(pointless)”。此言一出,全球医疗界哗然。

图源:券商中国

话音刚落仅仅四天,中国传染病医学专家、复旦大学附属华山医院感染科主任张文宏于香港高山书院论坛中明确表态,反对将AI引入医院病历系统。

图源:第一财经抖音号

一边是技术颠覆者的未来宣言,另一边是医学实践者的现实警醒。当硅谷的算法雄心撞上手术台的临床经验,一场关于医学未来的思辨悄然拉开序幕:AI是解放医生的工具,还是取代医生的威胁?医疗行业该如何平衡效率与安全、创新与传承?

“外科医生末日论”由何而来?

马斯克关于“外科医生失业”的预测,远非博取眼球的虚谈。这番言论背后,是他一以贯之的技术决定论思维和对通用人工智能(AGI)的极致信仰。其论断的核心逻辑,建立在对AGI突破性进展的预期之上。

他认为,人类将于2026年迈入AGI时代。与当前执行特定任务的狭义AI不同,AGI将具备自主学习、推理与适应未知环境的能力。他曾断言,“到2030年,AI的智能总量将超越全人类智能之和”。在这种背景下,AI在医疗领域实现“降维打击”被视为一种必然——正如顶尖围棋AI能走出令人类冠军难以理解的棋步,未来的医疗AI也可能在诊断与治疗规划上,展现出超越人类集体经验的智慧。

在此背景下,马斯克研发的Optimus人形机器人以AGI为核心技术支柱,旨在通过具身智能实现物理世界的通用任务执行。他描绘的Optimus拥有多重优势——其“视觉系统”可通过多光谱成像与光学相干断层扫描(OCT)实时洞察组织微观结构;“决策系统”能整合与分析远超人类记忆容量的医疗数据,规避因经验局限或状态波动导致的误判;“操作臂”则可实现亚毫米级的稳定精度,完全消除生理性震颤或情绪干扰。更重要的是,其“学习”无需历经十数年临床培养,通过海量高质量手术数据训练,理论上即可快速复现乃至融合顶尖外科医生的技术。

目前,这一构想已在其商业版图中进行局部验证。他旗下的脑机接口公司Neuralink所展示的手术机器人,能够在17秒内完成单根电极的精准植入,速度和精确度远超传统人工操作。

然而,这一系列宣称也必然地引发了巨大争议与行业焦虑。有批评者指出,马斯克擅长设定逼近物理极限的宏伟目标,并以激进预言倒逼技术跃进、吸引资本与关注——从全自动驾驶到火星移民,此策略屡见不鲜。眼下,将Optimus定位为未来价值核心,而医疗外科正是其规划的关键应用场景之一。制造“医生失业”的焦虑,在客观上能为其机器人业务吸引目光与资源。

张文宏为何坚决反对AI进病历系统?

对于马斯克的激进言论,医疗界的回应则普遍冷静而审慎。中国科学院院士、复旦大学附属中山医院心内科主任葛均波教授直言:“短期内还看不到(机器人完全取代医生的)这个苗头。”纽约大学格罗斯曼医学院的生物伦理学家阿瑟・卡普兰教授评价道:“这一说法完全不可信。”他以机器人前列腺手术的发展为例,指出其进程“一直十分缓慢”。在他看来,根本挑战在于医疗实践的高度复杂性与个体差异性——人类身体并非标准化的机器,难以通过预设程序完美适配所有情况。此外,要严谨证明机器人手术的临床效果不亚于甚至优于顶尖外科医生,本身就需要通过大量、长期的临床试验来验证,而这“还需要数年时间”。

与此相呼应,张文宏的态度则更为具体。他的谨慎并非源于对技术的排斥,而是基于数十年的临床实践和对医学教育本质的深刻理解,代表了相当一部分临床专家对AI融入医疗流程的务实思考。

“医生没有经过系统训练,就不能鉴别AI对错”。

张文宏以自身使用AI的经验为例,指出他经常让AI先对病例进行分析,然后凭借专业经验快速识别并纠正其中的错误。这种工作模式的关键在于:医生必须具备超越AI的判断能力。

他担心的是,如果年轻医生从实习阶段就开始依赖AI直接得出结论,而没有经过完整的临床思维训练,未来将难以具备鉴别AI诊断正误的能力。医学诊断不仅仅是信息处理,更是经验、直觉、逻辑和伦理判断的复杂结合。

这一担忧并非杞人忧天。2025年7月发表在npj Digital Medicine上的一项研究揭示了AI在医学推理中存在严重的思维定势:在处理复杂医学伦理场景时,无法识别情境转折,重复陈词滥调,错误率高达76%-96%,即使是普通的横向思维谜题,错误率也达58%-92%,机械套用训练数据中的高概率答案,例如,在HIV患者告知场景中,即便配偶已知情,AI依旧纠结于“是否需要告知”的常规争议。

张文宏的担忧正源于此,他反复强调从实习医生、住院医生到主治医生乃至更高年资医师,都必须经历完整的诊断思维训练,这至关重要。一旦AI过度介入核心病历系统,它可能从根本上侵蚀年轻医生培养临床思维的机会土壤。尽管AI在信息处理上或许能节省时间,但其一旦出错,医生往往需要耗费更多精力去回溯和排查。与年轻医生思维能力的“断代”风险相比,这些效率上的收益显得微不足道。

我们不怕AI快,怕的是它错得悄无声息。

超越对立——寻找医疗AI的第三条道路

马斯克与张文宏的这场隔空对话,本质上揭示了两种思维方式的根本分野:一边是深信技术能颠覆并重构一切的“硅谷逻辑”,另一边是深知人体复杂性与医疗决策分量的“临床思维”。其核心在于探寻AI在救死扶伤这一神圣领域中的合理边界——我们如何在提升效率与坚守安全、锐意创新与敬畏传承之间,找到那个动态的平衡点。

从现实进展来看,AI确实在重塑医疗行业,但其角色更接近于超级赋能者,而非替代者。它的优势在标准化、高重复性的任务中展现得尤为突出:它能将医生从繁重的病历文书工作中解放出来;在影像诊断上,AI对肺结节、眼底病变的识别准确率已超越普通医生;在手术辅助上,机器人能完成人类难以企及的精密操作。但这些优势都需要建立在人类医生主导的基础上——AI生成病历后,需医生审核修正;AI识别出病灶后,需医生结合临床症状判断;机器人手术时,需医生监控并处理突发状况。未来手术室也许是“人机共驾”,机器人负责重复、精密的操作,医生负责关键决策和人文关怀。

然而,通往这一未来的道路上,横亘着几道必须跨越的深壑:

●责任之困

责任认定模糊,若AI诊断错误导致医疗事故,责任该由医生、医院还是技术提供商承担?我国民法典虽规定了医疗损害责任,但针对AI的特殊情况尚未明确;

●黑箱之忧

算法透明度不足,AI的诊断逻辑往往是“黑箱”,患者无法了解结论的由来,知情权和选择权难以保障;

●偏见之险

若AI训练数据主要来自某一群体,可能导致模型对数据覆盖不足的特殊人群(如其他族裔、罕见病患者)的诊断准确率不足,加剧医疗资源不平等。

张文宏的审慎,正是在为这场技术狂奔注入至关重要的“临床清醒”。AI可以成为医生的强大工具,但绝不能替代医生临床思维的养成过程。未来的医学教育,必须在夯实传统诊断基本功的同时,融入与AI协作能力的培养。

结语

争论仍在继续,但可以肯定的是,医疗AI的发展不是一场零和游戏,技术会不断迭代更新,但医疗的“人文温度”永远无法被AI取代。真正的医疗未来,或许既不是AI完全取代医生,也不是医生拒绝AI,而是在不断磨合中找到人机协作的最佳平衡点——让技术扩展医生的能力边界,同时让医生的专业判断引导技术的正确应用。

这条路可能没有马斯克预测的那么快,也没有张文宏担心的那么险,它需要技术专家与医疗工作者共同努力,在创新与审慎之间,走出一条切实改善人类健康的智慧医疗之路。

图源:CMT

参考文献

[1]Soffer S, Sorin V, Nadkarni GN, Klang E. Pitfalls of large language models in medical ethics reasoning[J]. NPJ Digit Med. 2025 Jul 22;8(1):461. Doi: 10.1038/s41746-025-01792-y.

[2]https://static.nfnews.com/content/202601/11/c12069343.html

[3]https://www.thepaper.cn/newsDetail_forward_32375906

[4]https://www.thepaper.cn/newsDetail_forward_32341793

来源:医学论坛网

编辑:白术

审核:梨九

排版:蓝桉

封面图源:CMT