共计 840 个字符,预计需要花费 3 分钟才能阅读完成。
AI 工具的失控行为(例如微软的必应 AI 忘记了现在是哪一年)已经成为了关于人工智能报道的一个子类。然而,很多时候我们很难区分这是一个 bug 还是底层 AI 模型在分析输入数据并预测可接受的回应时构造得不好。例如,谷歌的 Gemini 图像生成器因为一个过滤器设置问题而画出了多样化的纳粹图像。
为了解决这个问题,OpenAI 发布了名为 Model Spec 的提议框架的第一稿。该框架将决定类似于 GPT- 4 模型的 AI 工具在未来如何进行回应。OpenAI 提出了三个总原则:AI 模型应该帮助开发人员和最终用户提供遵循指令的有用回应,考虑潜在的利益和伤害以造福人类,并在社会规范和法律方面代表 OpenAI。
框架还包括以下几条规则:
- 遵守命令链
- 遵守适用法律
- 不提供信息危害
- 尊重创作者及其权利
- 保护个人隐私
- 不提供不雅内容
OpenAI 表示,公司希望让用户和公司能够自由切换 AI 模型的行为。举例来说,在生成不雅内容时 OpenAI 正在探索是否能够通过 API 和 ChatGPT 负责地限制适用年龄范围。
OpenAI 的产品经理 Joanne Jang 解释说,Model Spec 的目标是从公众中获得意见,帮助确定 AI 模型的行为,并且这个框架将有助于准确界定什么是故意的,什么是 bug。Model Spec 的默认行为包括:假设用户或开发者的最佳意图、提问澄清问题、客观观点、反对仇恨、不试图改变任何人的想法,以及表达不确定性。
Model Spec 暂时不会立即影响 OpenAI 当前发布的模型,比如 GPT- 4 或 DALL-E 3,这些模型将继续按照现有的使用政策运行。
Jang 将模型行为称为“初生科学”,并表示 Model Spec 是一份可频繁更新的文件。OpenAI 将等待公众和各种利益相关者(包括决策者、信任机构和领域专家)的反馈,并将这些意见融入 Model Spec 的发展过程中。
OpenAI 并未明确表示会采纳公众反馈的程度,也没有说明由谁来决定需要做出哪些改变。最终,公司对其模型的行为有最终决定权,并表示希望通过早期洞察来确保负责地朝着使命发展。