谷歌医疗AI模型Med-Gemini误诊事件:基底节区错误引发的医疗AI信任危机

3次阅读
没有评论

共计 877 个字符,预计需要花费 3 分钟才能阅读完成。

在医疗领域,AI 的应用正逐渐普及,但最近谷歌的医疗 AI 模型 Med-Gemini 却因一个严重的错误引发了广泛关注。2024 年的一篇研究论文揭示了 Med-Gemini 在解读头部 CT 扫描时,将“基底节区”误认为“基底动脉”,这一错误不仅暴露了 AI 模型的局限性,也引发了医疗专业人士对 AI 在医疗领域应用的担忧。

基底节区是大脑中负责运动控制、学习和情感处理的区域,而基底动脉则是为脑干供血的重要血管。尽管两者名称相似,但它们在解剖结构和功能上有着本质的区别。Med-Gemini 的错误在于混淆了这两个区域,导致诊断报告中出现了不存在的“左侧基底节区陈旧性梗死”。这一错误被神经科医生兼研究员 Bryan Moore 发现,并公开指出,但谷歌并未在论文中修正这一错误,仅在博客文章中进行了悄悄修改。

谷歌医疗 AI 模型 Med-Gemini 误诊事件:基底节区错误引发的医疗 AI 信任危机

谷歌发言人 Jason Freidenfelds 表示,这一错误是由于“基底节区”的拼写错误,并强调公司正在不断改进模型,严格检查性能属性。然而,医疗专业人士认为,这一错误不仅是一个简单的拼写问题,而是 AI 在医疗领域应用中的一个潜在危险信号。

Providence 的首席医疗信息官 Maulin Shah 指出,AI 模型在医疗领域的错误可能导致严重后果,尤其是在医生依赖 AI 生成的报告时,可能会忽略这些错误。他呼吁行业应更加谨慎地对待 AI 的应用,特别是在高风险领域。

谷歌的 Med-Gemini 并非唯一出现此类错误的模型,AI 在医疗领域的应用仍处于早期试验阶段,但错误的代价正在变得更高。医疗 AI 的局限性不仅体现在技术层面,更在于如何确保其在临床实践中的可靠性和安全性。

专家们一致认为,医疗 AI 的发展需要更高的标准和更严格的审查。斯坦福医学院副教授 Jonathan Chen 博士表示,AI 在医疗领域的应用应保持适当的怀疑态度,尤其是在高风险场景下,AI 的出错门槛必须比人类高得多。

尽管 AI 在医疗领域有着巨大的潜力,但如何确保其准确性和可靠性仍是当前亟待解决的问题。谷歌的 Med-Gemini 事件提醒我们,AI 在医疗领域的应用仍需谨慎,特别是在面对人类生命时,任何错误都可能带来无法挽回的后果。

正文完
 0
admin-gah
版权声明:本文于2025-08-04转载自TheVerge,共计877字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码