共计 1142 个字符,预计需要花费 3 分钟才能阅读完成。
在《美国医学会杂志》最新发表的一篇评论中,来自罗格斯健康中心、哈佛大学和匹兹堡大学的研究团队对当前市场上声称能够帮助减少物质使用的移动健康应用和生成式 AI 技术提出了重要警示。该评论指出,这些未经充分监管的技术可能对公众健康构成潜在风险。
罗格斯尼古丁和烟草研究所成员、公共卫生学院副教授 Jon-Patrick Allem 作为该评论的资深作者,强调了加强技术监管的紧迫性。” 在移动健康和生成式 AI 应用领域,我们需要建立更完善的市场监管机制,”Allem 表示,” 更高的透明度和更严格的监管标准是保护公众免受误导性健康信息侵害的关键。”
尽管有研究表明,某些移动健康应用在受控环境下能够帮助减少酒精等物质的使用,但其实际效果往往大打折扣。评论指出,应用商店的商业模式倾向于推广那些能够带来广告收入的产品,而非真正基于科学证据的应用。这种商业导向导致许多未经充分验证甚至具有误导性的应用占据显要位置,而真正有效的应用反而难以被用户发现。
“ 我们对减少物质使用类应用的系统性审查显示,大多数应用并未采用经过验证的循证方法,”Allem 解释道,” 它们往往通过夸大其词的科学表述来营造可信度,实际上却缺乏实质性的科学依据。”
为了帮助消费者辨别应用的可信度,研究团队提出了以下关键指标:,
- 科学依据:应用应明确引用同行评审的科学研究
- 专业背书:开发团队应包括该领域专家,最好与大学或专业组织合作
- 独立评估:应用效果应在科学期刊上发表评估报告
- 数据安全:应用需遵循严格的数据标准,如符合 HIPAA 等法规
- 承诺适度:避免使用夸大其词的宣传语
随着生成式 AI 技术的快速发展,其与健康应用的结合引发了新的担忧。尽管像 ChatGPT 这样的通用模型在提供健康信息方面展现出潜力,但仍存在严重的安全隐患。这些隐患包括但不限于:提供不准确的健康信息、未能妥善处理危机情况,以及可能助长不安全行为。
当前,健康应用市场的监管和执法力度明显不足。大量未经证实的健康声明使得用户面临错误信息的风险,这可能严重影响物质使用障碍患者的治疗和康复进程。
“ 我们建议将健康应用纳入 FDA 的监管体系,” 研究团队提出,” 在向公众推广之前,这些应用应该通过随机临床试验,并达到既定的安全标准。”
在完善监管体系之前,清晰的标签制度至关重要。通过建立适当的保障措施和执法机制,如罚款、暂停或下架不合规产品,可以确保移动健康应用的信息准确性、安全性和可靠性。
为了规避风险,消费者应当警惕使用以下特征的应用:,
- 使用模糊术语(如 ” 临床验证 ”)但缺乏具体细节
- 声称采用过于简单或好得令人难以置信的方法
- 缺乏明确的科学依据和专业背书
随着健康科技的快速发展,如何在创新与安全之间找到平衡点,将是未来监管机构面临的重要挑战。只有建立完善的监管体系,才能确保这些技术真正造福公众健康。