共计 741 个字符,预计需要花费 2 分钟才能阅读完成。
新德里, 10 月 11 日 — 人工智能 (AI) 驱动的搜索引擎和聊天机器人可能并不总是提供准确和安全的药物信息, 患者不应依赖这些, 周五的一项研究警告说。
比利时和德国的研究人员在发现许多答案是错误或潜在有害的情况下进行了这项研究。
在发表于《BMJ 质量与安全》杂志的论文中, 他们表示, AI 聊天机器人提供的答案的复杂性可能难以理解, 可能需要大学水平的教育。
随着 2023 年引入 AI 驱动的聊天机器人, 搜索引擎经历了显著的转变。新版本提供了增强的搜索结果、全面的答案和一种新的互动体验。
尽管这些聊天机器人——经过整个互联网的广泛数据集训练——可以回答任何与健康相关的问题, 但它们也能够生成错误信息和无意义或有害的内容, 来自德国 FAU 大学的团队表示。
“在这项横断面研究中, 我们观察到带有 AI 聊天机器人的搜索引擎总体上提供了完整和准确的答案来回答患者的问题,”他们写道。
“然而, 聊天机器人的答案大多难以阅读, 答案反复缺乏信息或显示不准确, 可能威胁患者和药物安全,”他们补充道。
为了研究, 研究人员探讨了聊天机器人对 2020 年美国最常开处方的前 50 种药物查询的答案的可读性、完整性和准确性。他们使用了 Bing copilot, 这是一个带有 AI 聊天机器人功能的搜索引擎。
10 个问题中只有 5 个得到了最高完整性的回答。此外, 聊天机器人的陈述在 26% 的答案中与参考数据不匹配, 在超过 3% 的案例中完全不一致。
约 42% 的这些聊天机器人答案被认为会导致中度或轻微伤害, 22% 会导致死亡或严重伤害。
研究团队指出, 主要缺点是聊天机器人无法理解患者问题的深层意图。
“尽管它们有潜力, 但患者仍然必须咨询他们的医疗专业人员, 因为聊天机器人可能不会总是生成无错误的信息,”研究人员说。
本文已自动从机构提要发布, 未经任何修改, 且未经编辑审查。