共计 802 个字符,预计需要花费 3 分钟才能阅读完成。
麻省理工学院(MIT)在《新英格兰医学杂志》上发表的一项新研究,揭示了一个引人深思的现象:在寻求医疗建议时,人们往往更信任人工智能而非人类医生。这项基于 300 名参与者实验数据的研究,为我们理解公众对 AI 医疗建议的信任度提供了关键洞见。

研究邀请了医学专家与普通公众共同参与,请他们分别评估由医生或 ChatGPT 等 AI 模型生成的医疗回复。结果发现,无论是专业人士还是普通用户,普遍认为 AI 生成的回答在准确性、有效性、可信度和全面性上更胜一筹。
更值得注意的是,参与者很难可靠地区分哪些回复来自 AI、哪些来自真人医生。这意味着,即便 AI 提供的信息可能存在潜在误差,人们仍可能优先选择并相信这些由人工智能生成的医疗建议。
然而,这项研究也揭示了 AI 医疗建议的隐患。研究发现,即使 AI 生成的回复准确性较低,参与者仍认为其有效、可信且令人满意。他们表现出明显倾向于遵循这些可能有害的医疗建议,甚至可能因此寻求不必要的医疗服务。
这种过度信任已经导致了一些严重后果的实际案例。例如,一名 35 岁摩洛哥男性因听从聊天机器人建议,用橡皮筋缠绕痔疮,最终不得不紧急送医。另一起事件中,一名 60 岁男子在 ChatGPT 建议下食用溴化钠以“减少盐摄入”,结果导致中毒住院。
纽约特种外科医院脊柱外科研究服务主任达伦·勒布尔博士此前曾对 AI 生成的医疗建议表示深切忧虑。他指出,这类系统提供的建议中,有不少并非基于已发表的科学文献,甚至存在完全虚构的内容。“大约四分之一的建议是编造的,”他透露道。
这些发现凸显了 AI 在医学领域中传播错误信息的风险,可能对患者健康与安全造成严重影响。虽然人工智能在医疗领域的应用前景广阔,但完全依赖 AI 获取医疗指导,仍伴随信息准确性不足及相关风险。
随着 AI 技术在医疗建议领域的应用日益广泛,如何在利用其优势的同时,建立有效的监管和验证机制,确保患者获得安全可靠的医疗信息,成为医疗行业和科技界亟待解决的重要课题。