构建负责任人工智能的八大策略:专家指南与实践建议

27次阅读
没有评论

共计 1379 个字符,预计需要花费 4 分钟才能阅读完成。

将负责任的人工智能(AI)融入系统设计和部署的全过程,而非事后补救,已成为业界共识。行业专家为此提供了构建和管理负责任 AI 应用的指南。

构建负责任人工智能的八大策略:专家指南与实践建议

“负责任的人工智能”是当前极为热门且重要的话题,技术管理人员和专业人士有责任确保他们所进行的人工智能工作既能建立信任,又能与业务目标保持一致。

根据普华永道(PwC)的一项新调查,310 名高管中有 56% 表示,他们的第一线团队——IT、工程、数据和 AI——现在主导着他们的负责任 AI 工作。普华永道的作者表示:“这种转变将责任更接近构建 AI 的团队,并确保在决策发生的地方进行治理,将负责任 AI 从合规性对话重新聚焦到质量赋能上。”

普华永道的调查显示,负责任的人工智能——与消除偏见、确保公平、透明、问责、隐私和安全相关——也与业务的可行性和成功息息相关。“负责任的人工智能正在成为业务价值的驱动力,提高投资回报率、效率和创新,同时增强信任。”

“负责任的人工智能是一项团队运动,”报告的作者解释道。“随着 AI 应用的加速,明确的角色和紧密的交接现在对于安全且自信地扩展至关重要。”为了充分利用负责任 AI 的优势,普华永道建议在具有三条“防线”的运营结构中推出 AI 应用程序。

  • 第一道防线:负责任地构建和运营。
  • 第二道防线:审查和治理。
  • 第三道防线:保证和审计。

普华永道发现,半数受访者认为,实现负责任 AI 的挑战在于将负责任 AI 原则“转化为可扩展、可重复的流程”。

普华永道调查中约十分之六的受访者(61%)表示,负责任 AI 已积极整合到核心运营和决策中。大约五分之一(21%)的受访者表示处于培训阶段,重点是开发员工培训、治理结构和实用指南。剩下的 18% 表示他们仍处于早期阶段,正在努力构建基础政策和框架。

在整个行业中,关于如何严格控制 AI 以确保负责任应用程序的争论一直存在。“在某些情况下,AI 可以提供巨大的价值,但很少在企业风险承受范围内,”前美国国家安全局黑客、IANS Research 教员 Jake Williams 表示。“支撑大多数代理和生成式 AI 解决方案的大语言模型(LLM)无法产生一致的输出,导致不可预测的风险。企业重视可重复性,但大多数基于 LLM 的应用程序充其量只是大多数时候接近正确。”

由于这种不确定性,“我们看到越来越多的组织撤回他们的 AI 计划,因为他们意识到无法有效降低风险,特别是那些引入监管风险的风险,”Williams 继续说道。“在某些情况下,这将导致重新调整应用程序和用例以应对监管风险。在其他情况下,这将导致整个项目被放弃。”

行业专家提供了以下构建和管理负责任 AI 的指南:

  1. 从始至终构建负责任 AI: 将负责任 AI 作为系统设计和部署的一部分,而不是事后补救。
  2. 为 AI 赋予目的——不仅仅是为了部署 AI 而部署 AI: 以品味、纪律和目的使用技术。
  3. 预先强调负责任 AI 的重要性: 从定义可接受 AI 使用并明确禁止内容的明确政策开始。
  4. 将负责任 AI 作为工作的关键部分: 确保模型透明、可解释且没有有害偏见。
  5. 在所有阶段保持人类参与: 优先考虑“持续讨论如何负责任地使用 AI 以增加客户价值,同时确保数据安全和知识产权问题得到解决。
  6. 避免加速风险: 花额外的时间进行风险地图或检查模型可解释性。
  7. 记录、记录、记录: AI 做出的每个决定都应该被记录,易于解释,可审计,并有一个清晰的路径供人类遵循。
  8. 审查你的数据: 组织如何获取训练数据可能对安全、隐私和道德产生重大影响。
正文完
 0
admin-gah
版权声明:本文于2025-11-01转载自Zdnet,共计1379字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码