OpenAI资助杜克大学研究AI道德判断算法

70次阅读
没有评论

共计 1160 个字符,预计需要花费 3 分钟才能阅读完成。

OpenAI 资助杜克大学研究 AI 道德判断算法

在科技与伦理的交汇点上,OpenAI 正试图通过资助学术研究来探索一个复杂而敏感的领域——预测人类的道德判断。最近,OpenAI 向杜克大学的一个研究项目提供了资助,该项目旨在开发能够理解和预测人类道德决策的算法。

根据 OpenAI 提交给美国国税局的文件,他们向杜克大学的研究人员授予了一项名为“研究 AI 道德”的项目资助。这项资助是更大规模、为期三年、总额 100 万美元资助计划的一部分,旨在支持杜克大学的教授们研究如何“制造道德 AI”。然而,关于这项研究的细节,公开的信息非常有限,只知道资助将于 2025 年结束。研究的主要负责人 Walter Sinnott-Armstrong 教授,通过电子邮件向 TechCrunch 表示,他“无法谈论”这项工作。

Sinnott-Armstrong 教授和他的联合负责人 Jana Borg 已经在这方面取得了一些进展,他们发表了多项研究成果,并出版了一本关于 AI 作为“道德 GPS”帮助人类做出更好判断的书籍。他们的研究团队开发了一种“道德一致”的算法,用于决定谁将接受肾脏捐赠,并研究了在哪些情况下人们更倾向于让 AI 做出道德决策。

OpenAI 资助的研究目标是训练算法在涉及医学、法律和商业中道德相关特征冲突的场景中“预测人类道德判断”。然而,道德这一复杂概念是否在当今技术能力范围内尚不明确。

回顾 2021 年,非营利组织 Allen Institute for AI 开发了一款名为 Ask Delphi 的工具,旨在提供伦理上合理的建议。Delphi 在判断基本的道德困境时表现良好,例如,它“知道”考试作弊是错误的。但稍微重新措辞和改写问题就足以让 Delphi 批准几乎任何事情,包括一些极端的行为。

这背后的原因与现代 AI 系统的工作方式有关。机器学习模型是统计机器,它们通过大量来自网络的示例进行训练,学习这些示例中的模式以进行预测。AI 不具备对伦理概念的理解,也没有掌握道德决策中涉及的推理和情感。这就是为什么 AI 倾向于反映西方、受过教育和工业化国家的价值观——网络及其训练数据主要由支持这些观点的文章主导。

因此,许多人的价值观并未体现在 AI 给出的答案中,特别是如果这些人没有通过在线发帖为 AI 的训练集做出贡献。此外,AI 还内化了超越西方倾向的一系列偏见。Delphi 曾表示,异性恋比同性恋“道德上更可接受”。

OpenAI 及其支持的研究人员面临的挑战因道德固有的主观性而变得更加复杂。哲学家们已经对各种伦理理论的优点进行了数千年的辩论,目前还没有普遍适用的框架。Claude 倾向于康德主义(即关注绝对道德规则),而 ChatGPT 则略微倾向于功利主义(优先考虑最大多数人的最大利益)。哪一个更优越?这取决于你问谁。

一个能够预测人类道德判断的算法必须考虑到所有这些因素。这是一个非常高的门槛——假设这样的算法首先可能存在。

正文完
 0
admin-gah
版权声明:本文于2024-11-24转载自TechCrunch,共计1160字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码