共计 530 个字符,预计需要花费 2 分钟才能阅读完成。
英国安全研究所最近发布了一个名为 Inspect 的 AI 安全工具集,旨在加强 AI 安全评估的能力。这个开源工具集旨在评估 AI 模型的核心知识和推理能力,并根据评估结果生成一个评分。安全研究所声称 Inspect 是首个由国家支持的机构发起的 AI 安全测试平台,旨在促进全球 AI 社区参与安全测试并改进模型的质量。
Inspect 工具集由三个基本组件组成:数据集、求解器和评分器。数据集为评估测试提供样本,求解器执行测试,评分器评估求解器的工作并将测试的分数汇总为指标。为了满足不断发展的测试需求,Inspect 还可以通过使用 Python 编写的第三方包进行增强。
与此同时,安全研究所希望与其他组织合作,包括 Hugging Face,将 Inspect 与其他模型集成或创建一个公共排行榜以展示评估结果。
除了 Inspect 工具集之外,美国国家标准与技术研究所 (NIST) 还推出了 NIST GenAI 计划,旨在评估生成式 AI 技术,如文本和图像生成 AI。该计划还包括发布基准测试,以帮助创建内容真实性检测系统,并鼓励开发软件来发现伪造或误导的 AI 生成信息。
去年,美国和英国宣布合作开发先进的 AI 模型测试。作为这一合作的一部分,美国计划启动自己的 AI 安全研究所,旨在评估 AI 和生成 AI 带来的风险。