OpenAI发布Model Spec提议框架:定义AI工具的回应行为

140次阅读
没有评论

共计 840 个字符,预计需要花费 3 分钟才能阅读完成。

AI 工具的失控行为(例如微软的必应 AI 忘记了现在是哪一年)已经成为了关于人工智能报道的一个子类。然而,很多时候我们很难区分这是一个 bug 还是底层 AI 模型在分析输入数据并预测可接受的回应时构造得不好。例如,谷歌的 Gemini 图像生成器因为一个过滤器设置问题而画出了多样化的纳粹图像。

为了解决这个问题,OpenAI 发布了名为 Model Spec 的提议框架的第一稿。该框架将决定类似于 GPT- 4 模型的 AI 工具在未来如何进行回应。OpenAI 提出了三个总原则:AI 模型应该帮助开发人员和最终用户提供遵循指令的有用回应,考虑潜在的利益和伤害以造福人类,并在社会规范和法律方面代表 OpenAI。

框架还包括以下几条规则:

  • 遵守命令链
  • 遵守适用法律
  • 不提供信息危害
  • 尊重创作者及其权利
  • 保护个人隐私
  • 不提供不雅内容

OpenAI 表示,公司希望让用户和公司能够自由切换 AI 模型的行为。举例来说,在生成不雅内容时 OpenAI 正在探索是否能够通过 API 和 ChatGPT 负责地限制适用年龄范围。

OpenAI 的产品经理 Joanne Jang 解释说,Model Spec 的目标是从公众中获得意见,帮助确定 AI 模型的行为,并且这个框架将有助于准确界定什么是故意的,什么是 bug。Model Spec 的默认行为包括:假设用户或开发者的最佳意图、提问澄清问题、客观观点、反对仇恨、不试图改变任何人的想法,以及表达不确定性。

Model Spec 暂时不会立即影响 OpenAI 当前发布的模型,比如 GPT- 4 或 DALL-E 3,这些模型将继续按照现有的使用政策运行。

Jang 将模型行为称为“初生科学”,并表示 Model Spec 是一份可频繁更新的文件。OpenAI 将等待公众和各种利益相关者(包括决策者、信任机构和领域专家)的反馈,并将这些意见融入 Model Spec 的发展过程中。

OpenAI 并未明确表示会采纳公众反馈的程度,也没有说明由谁来决定需要做出哪些改变。最终,公司对其模型的行为有最终决定权,并表示希望通过早期洞察来确保负责地朝着使命发展。

正文完
 0
admin-gah
版权声明:本站原创文章,由 admin-gah 于2024-05-13发表,共计840字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
评论(没有评论)
验证码