在张文宏教授警钟的基础上建设性思考AI与医学教育、医疗服务的关系
技术的进步不应成为思维懒惰的温床,而应成为认知进化的阶梯。
“拥抱医学新范式的进步,守好患者安全与医疗质量的底线。”
——张琨
在医学发展的长河中,每一次范式更迭都不仅是工具的演进,更是认知的重塑。
从19世纪细菌学说(Germ Theory)确立现代临床医学的生物学基础,到20世纪工业与21世纪数字革命将医疗推向标准化与数据驱动的巅峰,人类医生始终扮演着知识的唯一承载者与最终决策者1。
随着生成式人工智能(Generative AI)与大语言模型(LLMs)以“碳硅协同”的态势深度介入临床实践,医学正站在全新范式转型的临界点上 1。这一次的转型并非简单的技术叠加,而是对临床医生“主体性”的根本性考验。
本文旨在通过对临床医生胜任力重构、教育范式转型及医患关系重构的深度分析,论证在人工智能辅助时代,医学专业素养如何从“知识拥有”转向“逻辑驾驭”,并构建一种足以防御认知萎缩的新型医学范式。
问题的提出:专业服务领域“人机协同”的先决条件
2026年1月,复旦大学张文宏教授在香港高山论坛上的公开表态,为医学领域对AI的盲目乐观敲响了警钟 2。他明确表示拒绝将AI直接引入医院病历系统,其核心逻辑在于捍卫医生的“临床专业诊断能力”2。这一言论触及了当前智慧医疗领域非常敏感的神经:在算法无孔不入的时代,临床自主性(Clinical Autonomy)的边界究竟在哪里?
临床主体性的捍卫与“外脑”逻辑
张文宏教授的警示揭示了一个深刻的逻辑前提:医生与AI的协作机制,必须建立在专业人士具备独立挖掘潜在问题、提出高质量问询(Prompting)以及评判回答可靠性的基础之上2。
在碳硅协同的语境下,AI应当被定位为医生的“外脑”而非“大脑”。“外脑”负责信息的存储、检索与初步整合,而“大脑”则必须保留对复杂因果关系的拆解与评价权力。
如果临床医生缺乏基础的洞察力、逻辑拆解能力和评价能力,其在诊疗过程中与一名持有高级医学账号的普通患者并无本质差异2。这种不对等的协作不仅无法提升效率,反而可能危及患者安全4。
当医生习惯于接收AI生成的病历摘要和诊断建议时,他们的大脑会习惯性放弃对原始症状、体征与病理生理逻辑之间细微联系的抓取。张文宏教授坚持要求医生进行手动病历记录,本质上是在通过“必要的难度”来训练高超的临床思维,防止医生在算法面前沦为平庸的执行者2。
“自动化偏差”是当前临床安全面临的重大挑战。研究显示,即使是资深医生,在时间压力和高强度工作环境下,也容易产生过度依赖自动化决策支持系统的倾向4。这种倾向表现为:当AI给出建议时,医生倾向于忽略与其临床经验相悖的证据(确认偏误),或者放弃对原始数据的独立审查 4。
在急诊、抢救室、ICU等高压环境中,这种风险被进一步放大。AI系统可能会无意中吸收、反映甚至放大训练数据中的社会偏见,导致对多元化患者群体的诊疗建议出现偏差5。如果医生丧失了对算法输出进行批判性评估的能力,这些偏差将通过医生的权威得到“合法化”,最终演变为系统性的医疗风险。
因此,构建一种能够驾驭算法、识别AI幻觉(Hallucinations)的新型医学素养,已成为确保患者安全的最后防线3。
下表对比了“临床主体性”在不同协作模式下的表现差异:
表1:临床主体性在不同协作模式下的表现对比

临床医生的胜任力重塑:从“知识检索”到“情境化裁量”
在传统医学模式中,医生的权威往往建立在海量医学知识的记忆与调取之上。然而,随着大语言模型(LLM)的介入,这一维度的竞争已逐渐失去意义1。
根据《新英格兰医学杂志 AI》(NEJM AI 2024)的社论观点,未来医生的核心胜任力将发生根本性位移:从信息的“获取者”转变为信息的“管理者”与“批判者”1。
AI系统在医疗图像解读、知识检索及标准化病例处理上已表现出匹配甚至超越人类专家的能力1。这意味着,医生不再需要记忆所有的药物剂量或罕见病标准,因为这些信息可以随时通过硅基系统获取。
然而,AI的表现呈现出一种“锯齿状前沿”(Jagged Frontier):它可能在复杂的诊断推理上表现卓越,却在看似简单的药物剂量计算或基本逻辑判断上出现令人费解的失败3。
因此,医生的批判性管理成为核心胜任力。医生必须具备识别AI“幻觉”的能力。幻觉是指LLM生成的看似合理实则逻辑断裂或事实错误的输出3。
这要求医生不仅要有扎实的临床知识,还要理解AI的运作机制及其不确定性。这种从“博学”向“明辨”的转型,是碳硅协同时代对专业人士提出的新要求。
《美国医学会杂志》(JAMA)的近期研究有力支持了笔者的观点:评判回答的可靠性与可执行性是医生的核心能力10。研究表明,虽然AI能给出符合指南的完美建议,但在面对多重共病(Multimorbidity)及复杂的社会心理因素时,这些建议往往缺乏“临床可执行性”10。
所谓“情境化裁量”(Contextualization),是指医生在人机回环(Human-in-the-loop)中发挥的关键作用:将冷冰冰的、通用的算法决策“翻译”为符合特定患者经济状况、心理预期和生活方式的个性化方案10。例如,对于一名患有糖尿病、心脏病且生活在交通不便地区的孤寡老人,AI可能会建议每日多次的复杂给药方案。此时,医生必须凭借深厚的病理生理学逻辑和社会医学洞察,识别出该方案在现实中的不可行性,并权衡利弊,制定出一个虽然在算法看来非最优、但在现实中却最安全有效的替代方案9。
在这一过程中,AI负责提供“可能”(Possibility),而医生负责决定“可行”(Feasibility)10。
下表列举了AI建议与医生情境化裁量的冲突点及解决路径:
表2: AI建议与医生情境化裁量的冲突点及解决路径

医学教育范式转型:防御“认知萎缩”,构建“认知脚手架”
关于“不能在临床早期依赖AI”的思考,在教育心理学层面具有极高的正当性。学术界将过度依赖AI导致的思维退化称为“认知萎缩”(Cognitive Atrophy)或“认知侵蚀”12。
认知萎缩的机制与对临床技能的伤害
《自然医学》(Nature Medicine 2025)发表的综述文章指出,临床推理能力(Clinical Reasoning)的形成高度依赖于大脑中“疾病脚本”(Illness Scripts)的反复刻画与修正13。疾病脚本是医生大脑中存储的关于特定疾病的结构化知识块,包含了典型症状、病理生理逻辑和诊断路径。
如果医学生在早期训练阶段直接利用AI获取诊断结果,将导致从症状到机理、再到诊断和处方的临床思维中最关键的逻辑判断链条发生断裂8。这种逻辑的“外包”使得学生失去了建立临床思维的机会。就像过早使用计算器会导致心算能力退化一样,过早依赖AI进行临床决策会导致医学生无法形成深层次的病理生理洞察。这种缺失在应对AI无法处理的复杂、突发情况时,将表现为毁灭性的“胜任力崩塌”。
医学教育的反向升级:构建“认知脚手架”
因此,医学教育亟需一场“反向升级”。正如《学术医学》(Academic Medicine)所建议,教育者应为学习者建立一套严格的“认知脚手架”(Cognitive Scaffolding)16。这种教学策略的核心在于:在学生尚未掌握底层逻辑之前,限制技术的使用;而在掌握之后,则引入技术以增强其高阶能力。
设立“无AI区”(AI-Free Zones):在基础阶段(如诊断学训练、基础医学课程),强制要求学生进行独立的逻辑推导与鉴别诊断训练16。这一阶段的目标是刻画稳固的“疾病脚本”,培养对医学逻辑的敬畏感和独立思考的尊严。
引入“对抗性训练”(Adversarial Training):在高阶阶段,不再要求学生背诵指南,而是故意向其展示包含隐蔽逻辑错误或事实虚构的AI生成报告17。考核目标是学生能否凭借专业素养识别并纠正这些错误。这种训练模拟了未来真实的碳硅协同场景,即医生作为算法的终极审查者。
培养解构能力:教学重心应转向对算法逻辑的解构。学生需要学习如何设计精准的“提示词”(Prompt Engineering),以及如何验证算法输出的证据等级3。
下表描绘了基于认知脚手架的医学教育阶段化路径:
表3: 基于认知脚手架的医学教育阶段化路径

医患关系重构:迈向“医生-AI-患者”的三元信任机制
AI的介入不可避免地打破了传统的双元(医生-患者)医患关系,将其重构为“三元医疗”(Triadic Care)模式18。在这种新架构中,医生扮演的角色不再仅仅是治疗者,更是“信任中介”18。
AI-医-患三元关系中的职能移位
根据《英国医学杂志》(BMJ 2024/2025)提出的模型,三元关系中的各方职能发生了如下移位3:
AI系统:承担“信息性支持”职能。它通过对海量数据的快速整合、可视化解释及辅助记录(如AI抄报人),将医生从琐碎的事务中解放出来9。
医生:核心职能回归为“情感性支持”与“价值对齐”(Value Alignment)。医生必须在算法给出的多个选项中,选出最符合患者生命价值观和生活质量诉求的那一个20。
患者:随着对AI工具的接触增加,患者的主体意识和自主性进一步提升。他们可能携带AI生成的自诊报告进入诊室,要求与医生进行更深层次的探讨18。
《柳叶刀数字健康》(The Lancet Digital Health)的研究指出,患者对AI诊疗结果的信任并非直接针对算法,而是建立在“医生对AI具有掌控力”的认知之上9。这意味着,信任的锚点虽然在向技术转移,但最终的落脚点依然是医生的专业自信和担保能力。
不感兴趣
看过了
取消
人点赞
人收藏
打赏
不感兴趣
看过了
取消
打赏作者
认可我就打赏我~
1元 5元 10元 20元 50元 其它
打赏作者
认可我就打赏我~
扫描二维码
立即打赏给Ta吧!
温馨提示:仅支持微信支付!
已收到您的咨询诉求 我们会尽快联系您