共计 810 个字符,预计需要花费 3 分钟才能阅读完成。
2024 年图灵奖得主 Richard Sutton 和 Andrew Barto 近日就人工智能(AI)开发中的安全问题发出警告,指出企业在追求利润的同时忽视了技术的潜在风险。这两位科学家因开发“强化学习”(reinforcement learning)技术而获得这一殊荣,该技术被认为是推动 AI 发展的重要支柱,催生了诸如 OpenAI 的 ChatGPT 和谷歌的 AlphaGo 等突破性成果。
在《金融时报》的采访中,Barto 和 Sutton 将当前 AI 模型的开发过程比作“建造一座桥并通过让人们使用它来测试它”,批评企业在发布产品前未进行充分测试。Barto 强调:“在没有保障措施的情况下向数百万人发布软件并不是良好的工程实践。工程领域已经发展出减轻技术负面影响的机制,但我并未看到这些技术在 AI 开发中得到充分应用。”
图灵奖被誉为“计算机界的诺贝尔奖”,此次颁发给 Barto 和 Sutton 以表彰他们在强化学习领域的开创性贡献。强化学习是一种通过试错训练 AI 系统做出优化决策的机器学习方法,谷歌高级副总裁将其描述为“AI 进步的关键”。
然而,AI 开发的潜在风险并非新话题。此前,被称为“AI 教父”的 Yoshua Bengio 和 Geoffrey Hinton 也曾多次发出警告。2023 年,包括 OpenAI CEO Sam Altman 在内的一群顶级 AI 研究人员、工程师和企业高管签署了一份声明,呼吁将“减轻 AI 带来的灭绝风险”作为全球优先事项。
Barto 批评 AI 公司“受商业激励驱动”,而非专注于推动 AI 研究的长期安全性和可靠性。尽管 OpenAI 多次承诺提高 AI 安全性,并曾因“在理解后果之前过度商业化进展”而短暂罢免 Altman,但该公司仍在 2023 年 12 月宣布计划转型为营利性企业。
随着 AI 技术的快速发展,Barto 和 Sutton 的警告再次提醒人们,技术进步与安全之间的平衡至关重要。如何在追求创新的同时确保技术的可控性,将是未来 AI 发展面临的核心挑战。