共计 1143 个字符,预计需要花费 3 分钟才能阅读完成。
你是否想知道为什么 ChatGPT 等对话型 AI 会礼貌地拒绝?OpenAI 提供了有限的关于其模型行为规则的解释,无论是遵循品牌准则还是拒绝生成不适宜内容。
大型语言模型(LLMs)在说什么或不说什么方面没有任何自然限制。这也是它们非常灵活的一部分原因,但也是它们会产生幻觉和容易被欺骗的原因之一。
任何与公众互动的 AI 模型都需要一些限制,确定这些限制以及执行它们是一个令人惊讶地艰巨的任务。
如果有人要请求 AI 生成关于某公众人物的虚假声明,它应该拒绝,对吗?但是如果他们是 AI 开发人员自己,为探测模型创建合成虚假信息的数据库呢?
如果有人要求推荐笔记本电脑,它应该客观,对吗?但是如果该模型被一家笔记本制造商部署,他们只希望它回答与他们产品相关的问题呢?
AI 制造商都在面临这类难题,并寻找高效的方法来限制它们的模型,而又不会完全拒绝正常请求。但是,他们很少分享自己是如何处理这些问题的。
OpenAI 的模型规范打破了传统的做法
OpenAI 通过发布所谓的“模型规范”打破了一些传统,这是一系列间接管理 ChatGPT 和其他模型的高级规则。
这些规则包括一些元级目标、硬性规则和一般性行为准则,但需要明确的是,这些并不严格地描述模型的初始内容;OpenAI 将会开发能够实现这些规则的具体自然语言指令。
这是一种有趣的方式来看待公司如何设定其优先事项并处理特殊情况。此外,有许多示例展示了这些规则可能如何应用,详细信息可参考 [OpenAI 的模型规范](https://cdn.openai.com/spec/model-spec-2024-05-08.html)。
明确开发者意图自然最高法律
例如,OpenAI 明确指出,开发者意图基本就是最高法律。因此,运行 GPT- 4 的某个聊天机器人的一个版本,在被问及数学问题时可能会提供答案。但是,如果该聊天机器人被开发者训练成只提供逐步解决问题的方法,它将会提供这样的方式:
图片来源:OpenAI
甚至,一个对话界面可能会拒绝谈论未经批准的事情,以防止被滥用。为什么要让一个烹饪助手介入越南战争?为什么一个客户服务聊天机器人要同意帮助你创作色情超自然小说?这是格外重要的。
保护用户隐私是重要的
在隐私问题上,有时会变得非常复杂,比如要求某人的姓名和电话号码。OpenAI 指出,公众人物如市长或国会议员应该提供他们的联系方式,但对于当地的小业主、公司员工或政党成员来说,可能就不适用了。选择划定界限的时间和地点并非易事。创建指令以使 AI 遵守相应的政策也并不容易。毫无疑问,这些政策可能会被人们绕过或在无意中发现未考虑到的特殊情况中失败。
虽然 OpenAI 并没有公开所有的底细,但对于用户和开发者来说,能够清楚地看到这些规则和准则的设定以及为什么设定是非常有帮助的,即使它们并不全面。