共计 1618 个字符,预计需要花费 5 分钟才能阅读完成。
人工智能正在全球医疗领域掀起变革浪潮,然而在儿科外科这一特殊专科,其应用步伐却显得尤为审慎。一项最新研究揭示,尽管外科医生普遍认可人工智能在提升诊断准确率、优化手术方案及辅助临床决策方面的潜力,但该技术在实际诊疗中仍十分罕见,大多停留在学术研究层面。医生们对责任归属模糊、儿童知情同意获取困难、数据隐私风险及算法偏见等问题表达了深切忧虑。这项研究通过深入调研儿科外科医生的经验与看法,指出了在人工智能安全、负责任地融入儿科临床之前必须跨越的多重障碍。
当前,人工智能正重塑医疗数据的解读方式、疾病风险的预测模式以及复杂临床决策的支持体系。然而,儿科外科因其患者群体的特殊性——儿童自主权受限、家长必须参与决策、手术风险敏感度高——而面临独特的伦理挑战。在资源匮乏地区,基础设施薄弱、数据代表性不足、监管框架缺失等问题进一步加剧了应用难度。儿科外科医生不得不在拥抱技术创新与履行保护脆弱患者、维护医患信任的职业义务之间寻找平衡。正因为这些张力,关于人工智能工具使用的透明度、公平性与责任归属的讨论日益迫切。这也意味着,亟需更多研究来引导人工智能以符合伦理且切合实际的方式融入儿科外科护理。
全国性调查揭示儿科外科 AI 应用现状与伦理关切
尼日利亚乌穆阿希亚联邦医疗中心的全国性儿科外科团队近期完成了首项全面调查,旨在了解临床医生对人工智能融入儿科外科所涉及的伦理与实践问题的看法。该研究于 2025 年 10 月 20 日发表在《世界儿科外科杂志》(DOI: 10.1136/wjps-2025-001089),收集了来自全国六大地理区域外科医生的反馈,以评估他们对人工智能的认知程度、使用现状及关键伦理关切。结果显示,这一专业领域正在谨慎权衡人工智能的潜在益处与尚未解决的责任、同意、隐私及监管等现实问题。
儿科外科 AI 临床使用率低,伦理担忧成普遍共识
研究共分析了 88 位儿科外科医生的问卷反馈,其中多数为活跃于多样临床环境的资深顾问医师。尽管全球外科人工智能创新进展迅速,但仅有约三分之一的受访者曾使用过相关工具,且用途大多局限于文献检索、病历记录等非临床任务。极少数医生表示将人工智能用于诊断支持、影像解读或手术模拟,这凸显了新兴技术能力与日常儿科外科实践之间仍存在显著落差。
伦理担忧几乎成为普遍共识。外科医生指出,人工智能相关错误的责任由谁承担、如何从家长或监护人处获得真正知情同意、以及患者数据的安全性等问题,是他们犹豫是否采用该技术的主要原因。此外,算法可能存在的偏见、人为监督减少、以及损害事件中法律责任界定不清等,也引发了广泛关注。在是否应向患儿家属披露人工智能使用情况这一问题上,医生意见出现分歧:许多人支持主动告知家长人工智能的参与,但也有医生认为,若人工智能未直接影响临床决策,则无需特别说明。
呼吁加强监管与培训,构建可信赖的儿科外科 AI 应用环境
多数受访者对现有医疗人工智能的法律监管框架缺乏信心。他们普遍呼吁加强监管引导、制定更清晰的应用指南,并开展标准化培训,以帮助儿科外科医生为未来的人工智能融合做好准备。整体而言,研究结果凸显了对结构化治理体系与专业能力建设的迫切需求。
研究团队解释说:“结果说明,儿科外科医生并不排斥人工智能——他们只是希望确保其应用是安全、公平且受到妥善监管的。在涉及脆弱患儿的医疗场景中,医生要能放心借助人工智能,就必须先解决责任归属、知情同意和数据保护等伦理难题。清晰的国家指南、实用的培训计划和透明的行业标准,对于确保人工智能成为儿科外科护理的辅助工具,而非新增的风险来源至关重要。”
研究强调,有必要建立针对儿科群体的人工智能伦理框架、设计更清晰的知情同意流程,并明确人工智能辅助诊疗中的责任机制。同时,加强数据治理、改善数字基础设施、提升临床医生与患儿家庭的人工智能素养,对于构建信任关系至关重要。随着人工智能逐步进入外科实践,这些措施为在保障儿童安全与公众信心的前提下推动技术融合,提供了一条可行的路径。